pgindent run before PG 9.1 beta 1.
authorBruce Momjian <bruce@momjian.us>
Sun, 10 Apr 2011 15:42:00 +0000 (11:42 -0400)
committerBruce Momjian <bruce@momjian.us>
Sun, 10 Apr 2011 15:42:00 +0000 (11:42 -0400)
446 files changed:
contrib/adminpack/adminpack.c
contrib/auth_delay/auth_delay.c
contrib/btree_gist/btree_cash.c
contrib/btree_gist/btree_date.c
contrib/btree_gist/btree_float4.c
contrib/btree_gist/btree_float8.c
contrib/btree_gist/btree_int2.c
contrib/btree_gist/btree_int4.c
contrib/btree_gist/btree_int8.c
contrib/btree_gist/btree_interval.c
contrib/btree_gist/btree_oid.c
contrib/btree_gist/btree_time.c
contrib/btree_gist/btree_ts.c
contrib/btree_gist/btree_utils_num.c
contrib/btree_gist/btree_utils_num.h
contrib/btree_gist/btree_utils_var.c
contrib/dummy_seclabel/dummy_seclabel.c
contrib/file_fdw/file_fdw.c
contrib/fuzzystrmatch/levenshtein.c
contrib/hstore/hstore_gin.c
contrib/hstore/hstore_op.c
contrib/intarray/_int_bool.c
contrib/intarray/_int_gin.c
contrib/intarray/_int_tool.c
contrib/isn/ISBN.h
contrib/pg_archivecleanup/pg_archivecleanup.c
contrib/pg_stat_statements/pg_stat_statements.c
contrib/pg_test_fsync/pg_test_fsync.c
contrib/pg_trgm/trgm.h
contrib/pg_trgm/trgm_gin.c
contrib/pg_trgm/trgm_gist.c
contrib/pg_trgm/trgm_op.c
contrib/pg_upgrade/check.c
contrib/pg_upgrade/controldata.c
contrib/pg_upgrade/exec.c
contrib/pg_upgrade/file.c
contrib/pg_upgrade/function.c
contrib/pg_upgrade/info.c
contrib/pg_upgrade/pg_upgrade.c
contrib/pg_upgrade/pg_upgrade.h
contrib/pg_upgrade/relfilenode.c
contrib/pg_upgrade/server.c
contrib/pg_upgrade/tablespace.c
contrib/pg_upgrade/util.c
contrib/pg_upgrade/version_old_8_3.c
contrib/pg_upgrade_support/pg_upgrade_support.c
contrib/pgbench/pgbench.c
contrib/seg/seg.c
contrib/sepgsql/dml.c
contrib/sepgsql/hooks.c
contrib/sepgsql/label.c
contrib/sepgsql/proc.c
contrib/sepgsql/relation.c
contrib/sepgsql/schema.c
contrib/sepgsql/selinux.c
contrib/sepgsql/sepgsql.h
contrib/spi/moddatetime.c
contrib/xml2/xpath.c
contrib/xml2/xslt_proc.c
src/backend/access/common/heaptuple.c
src/backend/access/common/indextuple.c
src/backend/access/gin/ginarrayproc.c
src/backend/access/gin/ginbulk.c
src/backend/access/gin/gindatapage.c
src/backend/access/gin/ginentrypage.c
src/backend/access/gin/ginfast.c
src/backend/access/gin/ginget.c
src/backend/access/gin/gininsert.c
src/backend/access/gin/ginscan.c
src/backend/access/gin/ginutil.c
src/backend/access/gin/ginvacuum.c
src/backend/access/gin/ginxlog.c
src/backend/access/gist/gist.c
src/backend/access/gist/gistget.c
src/backend/access/gist/gistproc.c
src/backend/access/gist/gistscan.c
src/backend/access/gist/gistutil.c
src/backend/access/gist/gistxlog.c
src/backend/access/hash/hash.c
src/backend/access/heap/heapam.c
src/backend/access/heap/hio.c
src/backend/access/heap/rewriteheap.c
src/backend/access/index/indexam.c
src/backend/access/nbtree/nbtinsert.c
src/backend/access/nbtree/nbtpage.c
src/backend/access/nbtree/nbtree.c
src/backend/access/nbtree/nbtsearch.c
src/backend/access/nbtree/nbtsort.c
src/backend/access/nbtree/nbtutils.c
src/backend/access/transam/twophase.c
src/backend/access/transam/varsup.c
src/backend/access/transam/xact.c
src/backend/access/transam/xlog.c
src/backend/catalog/aclchk.c
src/backend/catalog/catalog.c
src/backend/catalog/dependency.c
src/backend/catalog/heap.c
src/backend/catalog/index.c
src/backend/catalog/namespace.c
src/backend/catalog/objectaddress.c
src/backend/catalog/pg_collation.c
src/backend/catalog/pg_constraint.c
src/backend/catalog/pg_depend.c
src/backend/catalog/pg_enum.c
src/backend/catalog/pg_proc.c
src/backend/catalog/pg_type.c
src/backend/catalog/storage.c
src/backend/catalog/toasting.c
src/backend/commands/alter.c
src/backend/commands/analyze.c
src/backend/commands/cluster.c
src/backend/commands/collationcmds.c
src/backend/commands/comment.c
src/backend/commands/conversioncmds.c
src/backend/commands/copy.c
src/backend/commands/dbcommands.c
src/backend/commands/explain.c
src/backend/commands/extension.c
src/backend/commands/foreigncmds.c
src/backend/commands/functioncmds.c
src/backend/commands/indexcmds.c
src/backend/commands/opclasscmds.c
src/backend/commands/operatorcmds.c
src/backend/commands/portalcmds.c
src/backend/commands/prepare.c
src/backend/commands/seclabel.c
src/backend/commands/sequence.c
src/backend/commands/tablecmds.c
src/backend/commands/tablespace.c
src/backend/commands/trigger.c
src/backend/commands/tsearchcmds.c
src/backend/commands/typecmds.c
src/backend/commands/user.c
src/backend/commands/vacuum.c
src/backend/commands/vacuumlazy.c
src/backend/commands/variable.c
src/backend/commands/view.c
src/backend/executor/execMain.c
src/backend/executor/execQual.c
src/backend/executor/execUtils.c
src/backend/executor/functions.c
src/backend/executor/nodeAgg.c
src/backend/executor/nodeBitmapIndexscan.c
src/backend/executor/nodeForeignscan.c
src/backend/executor/nodeHash.c
src/backend/executor/nodeHashjoin.c
src/backend/executor/nodeIndexscan.c
src/backend/executor/nodeLimit.c
src/backend/executor/nodeLockRows.c
src/backend/executor/nodeMergeAppend.c
src/backend/executor/nodeMergejoin.c
src/backend/executor/nodeModifyTable.c
src/backend/executor/nodeNestloop.c
src/backend/executor/nodeRecursiveunion.c
src/backend/executor/nodeSetOp.c
src/backend/executor/nodeWindowAgg.c
src/backend/executor/spi.c
src/backend/libpq/auth.c
src/backend/libpq/hba.c
src/backend/libpq/pqcomm.c
src/backend/main/main.c
src/backend/nodes/copyfuncs.c
src/backend/nodes/nodeFuncs.c
src/backend/nodes/params.c
src/backend/optimizer/path/allpaths.c
src/backend/optimizer/path/costsize.c
src/backend/optimizer/path/equivclass.c
src/backend/optimizer/path/indxpath.c
src/backend/optimizer/path/joinpath.c
src/backend/optimizer/path/joinrels.c
src/backend/optimizer/path/pathkeys.c
src/backend/optimizer/plan/analyzejoins.c
src/backend/optimizer/plan/createplan.c
src/backend/optimizer/plan/initsplan.c
src/backend/optimizer/plan/planagg.c
src/backend/optimizer/plan/planmain.c
src/backend/optimizer/plan/planner.c
src/backend/optimizer/prep/prepjointree.c
src/backend/optimizer/prep/prepqual.c
src/backend/optimizer/prep/preptlist.c
src/backend/optimizer/prep/prepunion.c
src/backend/optimizer/util/clauses.c
src/backend/optimizer/util/pathnode.c
src/backend/optimizer/util/placeholder.c
src/backend/optimizer/util/predtest.c
src/backend/optimizer/util/var.c
src/backend/parser/analyze.c
src/backend/parser/parse_agg.c
src/backend/parser/parse_clause.c
src/backend/parser/parse_coerce.c
src/backend/parser/parse_collate.c
src/backend/parser/parse_cte.c
src/backend/parser/parse_expr.c
src/backend/parser/parse_func.c
src/backend/parser/parse_node.c
src/backend/parser/parse_oper.c
src/backend/parser/parse_param.c
src/backend/parser/parse_relation.c
src/backend/parser/parse_target.c
src/backend/parser/parse_utilcmd.c
src/backend/port/dynloader/freebsd.c
src/backend/port/dynloader/netbsd.c
src/backend/port/dynloader/openbsd.c
src/backend/port/pipe.c
src/backend/port/sysv_shmem.c
src/backend/port/unix_latch.c
src/backend/port/win32/crashdump.c
src/backend/port/win32/timer.c
src/backend/port/win32_latch.c
src/backend/postmaster/autovacuum.c
src/backend/postmaster/bgwriter.c
src/backend/postmaster/pgstat.c
src/backend/postmaster/postmaster.c
src/backend/postmaster/syslogger.c
src/backend/regex/regcomp.c
src/backend/replication/basebackup.c
src/backend/replication/syncrep.c
src/backend/replication/walreceiver.c
src/backend/replication/walreceiverfuncs.c
src/backend/replication/walsender.c
src/backend/rewrite/rewriteDefine.c
src/backend/rewrite/rewriteHandler.c
src/backend/rewrite/rewriteSupport.c
src/backend/storage/buffer/bufmgr.c
src/backend/storage/buffer/freelist.c
src/backend/storage/buffer/localbuf.c
src/backend/storage/file/fd.c
src/backend/storage/file/reinit.c
src/backend/storage/ipc/pmsignal.c
src/backend/storage/ipc/procarray.c
src/backend/storage/ipc/standby.c
src/backend/storage/large_object/inv_api.c
src/backend/storage/lmgr/lock.c
src/backend/storage/lmgr/predicate.c
src/backend/storage/smgr/md.c
src/backend/storage/smgr/smgr.c
src/backend/tcop/postgres.c
src/backend/tcop/pquery.c
src/backend/tcop/utility.c
src/backend/tsearch/spell.c
src/backend/tsearch/ts_locale.c
src/backend/tsearch/ts_selfuncs.c
src/backend/tsearch/wparser_def.c
src/backend/utils/adt/acl.c
src/backend/utils/adt/arrayfuncs.c
src/backend/utils/adt/cash.c
src/backend/utils/adt/date.c
src/backend/utils/adt/datetime.c
src/backend/utils/adt/dbsize.c
src/backend/utils/adt/enum.c
src/backend/utils/adt/formatting.c
src/backend/utils/adt/genfile.c
src/backend/utils/adt/like.c
src/backend/utils/adt/nabstime.c
src/backend/utils/adt/network.c
src/backend/utils/adt/numeric.c
src/backend/utils/adt/numutils.c
src/backend/utils/adt/pg_locale.c
src/backend/utils/adt/pgstatfuncs.c
src/backend/utils/adt/ri_triggers.c
src/backend/utils/adt/ruleutils.c
src/backend/utils/adt/selfuncs.c
src/backend/utils/adt/tsginidx.c
src/backend/utils/adt/tsvector_op.c
src/backend/utils/adt/varbit.c
src/backend/utils/adt/varlena.c
src/backend/utils/adt/xml.c
src/backend/utils/cache/inval.c
src/backend/utils/cache/lsyscache.c
src/backend/utils/cache/plancache.c
src/backend/utils/cache/relcache.c
src/backend/utils/cache/syscache.c
src/backend/utils/cache/ts_cache.c
src/backend/utils/cache/typcache.c
src/backend/utils/error/elog.c
src/backend/utils/fmgr/fmgr.c
src/backend/utils/fmgr/funcapi.c
src/backend/utils/init/miscinit.c
src/backend/utils/init/postinit.c
src/backend/utils/mb/mbutils.c
src/backend/utils/misc/guc.c
src/backend/utils/misc/rbtree.c
src/backend/utils/misc/tzparser.c
src/backend/utils/mmgr/aset.c
src/backend/utils/mmgr/portalmem.c
src/backend/utils/resowner/resowner.c
src/backend/utils/sort/tuplesort.c
src/backend/utils/time/snapmgr.c
src/bin/initdb/initdb.c
src/bin/pg_basebackup/pg_basebackup.c
src/bin/pg_ctl/pg_ctl.c
src/bin/pg_dump/compress_io.c
src/bin/pg_dump/compress_io.h
src/bin/pg_dump/dumputils.c
src/bin/pg_dump/dumputils.h
src/bin/pg_dump/pg_backup_archiver.c
src/bin/pg_dump/pg_backup_archiver.h
src/bin/pg_dump/pg_backup_custom.c
src/bin/pg_dump/pg_backup_directory.c
src/bin/pg_dump/pg_backup_tar.c
src/bin/pg_dump/pg_dump.c
src/bin/pg_dump/pg_dump.h
src/bin/pg_dump/pg_dumpall.c
src/bin/psql/command.c
src/bin/psql/describe.c
src/bin/psql/tab-complete.c
src/bin/scripts/droplang.c
src/include/access/gin.h
src/include/access/gin_private.h
src/include/access/gist.h
src/include/access/gist_private.h
src/include/access/hio.h
src/include/access/htup.h
src/include/access/itup.h
src/include/access/relscan.h
src/include/access/tupdesc.h
src/include/access/xact.h
src/include/access/xlog.h
src/include/access/xlogdefs.h
src/include/catalog/catalog.h
src/include/catalog/dependency.h
src/include/catalog/namespace.h
src/include/catalog/objectaccess.h
src/include/catalog/pg_am.h
src/include/catalog/pg_amop.h
src/include/catalog/pg_authid.h
src/include/catalog/pg_class.h
src/include/catalog/pg_collation.h
src/include/catalog/pg_collation_fn.h
src/include/catalog/pg_constraint.h
src/include/catalog/pg_control.h
src/include/catalog/pg_enum.h
src/include/catalog/pg_extension.h
src/include/catalog/pg_index.h
src/include/catalog/pg_operator.h
src/include/catalog/pg_proc.h
src/include/catalog/pg_seclabel.h
src/include/catalog/pg_type.h
src/include/catalog/storage.h
src/include/commands/alter.h
src/include/commands/collationcmds.h
src/include/commands/copy.h
src/include/commands/dbcommands.h
src/include/commands/defrem.h
src/include/commands/explain.h
src/include/commands/extension.h
src/include/commands/proclang.h
src/include/commands/seclabel.h
src/include/commands/trigger.h
src/include/commands/typecmds.h
src/include/commands/vacuum.h
src/include/executor/executor.h
src/include/executor/functions.h
src/include/executor/hashjoin.h
src/include/executor/nodeHash.h
src/include/fmgr.h
src/include/foreign/fdwapi.h
src/include/foreign/foreign.h
src/include/libpq/auth.h
src/include/libpq/libpq-be.h
src/include/libpq/libpq.h
src/include/nodes/execnodes.h
src/include/nodes/makefuncs.h
src/include/nodes/params.h
src/include/nodes/parsenodes.h
src/include/nodes/pg_list.h
src/include/nodes/plannodes.h
src/include/nodes/primnodes.h
src/include/nodes/relation.h
src/include/optimizer/cost.h
src/include/optimizer/pathnode.h
src/include/optimizer/paths.h
src/include/optimizer/placeholder.h
src/include/optimizer/subselect.h
src/include/parser/parse_collate.h
src/include/parser/parse_func.h
src/include/parser/parse_type.h
src/include/parser/parser.h
src/include/pgstat.h
src/include/port/win32.h
src/include/replication/replnodes.h
src/include/replication/syncrep.h
src/include/replication/walprotocol.h
src/include/replication/walreceiver.h
src/include/replication/walsender.h
src/include/rewrite/rewriteSupport.h
src/include/storage/backendid.h
src/include/storage/buf_internals.h
src/include/storage/latch.h
src/include/storage/pmsignal.h
src/include/storage/predicate_internals.h
src/include/storage/proc.h
src/include/storage/procarray.h
src/include/storage/relfilenode.h
src/include/tsearch/dicts/spell.h
src/include/utils/acl.h
src/include/utils/builtins.h
src/include/utils/bytea.h
src/include/utils/datetime.h
src/include/utils/elog.h
src/include/utils/guc.h
src/include/utils/lsyscache.h
src/include/utils/numeric.h
src/include/utils/portal.h
src/include/utils/rbtree.h
src/include/utils/rel.h
src/include/utils/tuplesort.h
src/include/utils/typcache.h
src/include/utils/varbit.h
src/include/utils/xml.h
src/interfaces/ecpg/compatlib/informix.c
src/interfaces/ecpg/ecpglib/connect.c
src/interfaces/ecpg/ecpglib/memory.c
src/interfaces/ecpg/ecpglib/prepare.c
src/interfaces/ecpg/preproc/ecpg.c
src/interfaces/ecpg/preproc/extern.h
src/interfaces/libpq/fe-auth.c
src/interfaces/libpq/fe-connect.c
src/interfaces/libpq/fe-exec.c
src/interfaces/libpq/fe-protocol2.c
src/interfaces/libpq/fe-protocol3.c
src/interfaces/libpq/fe-secure.c
src/interfaces/libpq/libpq-fe.h
src/interfaces/libpq/libpq-int.h
src/pl/plperl/plperl.c
src/pl/plperl/plperl.h
src/pl/plperl/plperl_helpers.h
src/pl/plpgsql/src/pl_comp.c
src/pl/plpgsql/src/pl_exec.c
src/pl/plpgsql/src/plpgsql.h
src/pl/plpython/plpython.c
src/pl/tcl/pltcl.c
src/port/chklocale.c
src/port/crypt.c
src/port/dirmod.c
src/port/exec.c
src/port/getaddrinfo.c
src/port/inet_net_ntop.c
src/port/path.c
src/port/pgmkdirp.c
src/port/snprintf.c
src/port/unsetenv.c
src/test/isolation/isolation_main.c
src/test/isolation/isolationtester.c
src/test/isolation/isolationtester.h
src/test/regress/pg_regress.c

index c149dd6c6352587706067fbc5145f32d856e6f3e..99fa02e81365f0ba04d1a642b6862bc415b1da91 100644 (file)
@@ -78,18 +78,19 @@ convert_and_check_filename(text *arg, bool logAllowed)
        /* Disallow '/a/b/data/..' */
        if (path_contains_parent_reference(filename))
            ereport(ERROR,
-               (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-               (errmsg("reference to parent directory (\"..\") not allowed"))));
+                   (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
+           (errmsg("reference to parent directory (\"..\") not allowed"))));
+
        /*
-        *  Allow absolute paths if within DataDir or Log_directory, even
-        *  though Log_directory might be outside DataDir.
+        * Allow absolute paths if within DataDir or Log_directory, even
+        * though Log_directory might be outside DataDir.
         */
        if (!path_is_prefix_of_path(DataDir, filename) &&
            (!logAllowed || !is_absolute_path(Log_directory) ||
             !path_is_prefix_of_path(Log_directory, filename)))
            ereport(ERROR,
-               (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-                (errmsg("absolute path not allowed"))));
+                   (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
+                    (errmsg("absolute path not allowed"))));
    }
    else if (!path_is_relative_and_below_cwd(filename))
        ereport(ERROR,
index ca388c4498414d86cb0fbd889ef1f851e9f93ddf..4e0d5959d19ca9852b60386d995b25af41a3ef8d 100644 (file)
 
 PG_MODULE_MAGIC;
 
-void _PG_init(void);
+void       _PG_init(void);
 
 /* GUC Variables */
 static int auth_delay_milliseconds;
 
 /* Original Hook */
-static ClientAuthentication_hook_type  original_client_auth_hook = NULL;
+static ClientAuthentication_hook_type original_client_auth_hook = NULL;
 
 /*
  * Check authentication
@@ -55,7 +55,7 @@ _PG_init(void)
 {
    /* Define custom GUC variables */
    DefineCustomIntVariable("auth_delay.milliseconds",
-                           "Milliseconds to delay before reporting authentication failure",
+            "Milliseconds to delay before reporting authentication failure",
                            NULL,
                            &auth_delay_milliseconds,
                            0,
index 7938a70f17a120c1e181df0804b558b6608bef22..2664a2687057d4b001839043480c204952dcb43e 100644 (file)
@@ -169,7 +169,7 @@ gbt_cash_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index ccd7e2ad3f383a3fef458454b3bbe5a05fb1cca7..8a675e2f1d884a5e0625c3f00f3ea4715622ba54 100644 (file)
@@ -90,9 +90,9 @@ static float8
 gdb_date_dist(const void *a, const void *b)
 {
    /* we assume the difference can't overflow */
-   Datum diff = DirectFunctionCall2(date_mi,
+   Datum       diff = DirectFunctionCall2(date_mi,
                                     DateADTGetDatum(*((const DateADT *) a)),
-                                    DateADTGetDatum(*((const DateADT *) b)));
+                                   DateADTGetDatum(*((const DateADT *) b)));
 
    return (float8) Abs(DatumGetInt32(diff));
 }
@@ -113,14 +113,14 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(date_dist);
-Datum       date_dist(PG_FUNCTION_ARGS);
+Datum      date_dist(PG_FUNCTION_ARGS);
 Datum
 date_dist(PG_FUNCTION_ARGS)
 {
    /* we assume the difference can't overflow */
-   Datum diff = DirectFunctionCall2(date_mi,
-                                    PG_GETARG_DATUM(0),
-                                    PG_GETARG_DATUM(1));
+   Datum       diff = DirectFunctionCall2(date_mi,
+                                          PG_GETARG_DATUM(0),
+                                          PG_GETARG_DATUM(1));
 
    PG_RETURN_INT32(Abs(DatumGetInt32(diff)));
 }
@@ -181,7 +181,7 @@ gbt_date_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index 932a941f889e4b9d3e91fd4f58ad7654221c7187..266256b23cf973cdaebec5b5160164baca5b66a0 100644 (file)
@@ -94,18 +94,18 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(float4_dist);
-Datum       float4_dist(PG_FUNCTION_ARGS);
+Datum      float4_dist(PG_FUNCTION_ARGS);
 Datum
 float4_dist(PG_FUNCTION_ARGS)
 {
-    float4     a = PG_GETARG_FLOAT4(0);
+   float4      a = PG_GETARG_FLOAT4(0);
    float4      b = PG_GETARG_FLOAT4(1);
    float4      r;
 
    r = a - b;
    CHECKFLOATVAL(r, isinf(a) || isinf(b), true);
 
-   PG_RETURN_FLOAT4( Abs(r) );
+   PG_RETURN_FLOAT4(Abs(r));
 }
 
 
@@ -162,7 +162,7 @@ gbt_float4_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index 0c39980ba1e0ee456c05a0d7644364b5b11bd8b2..efbee0f3e4b66531310bb6f98a8eec991f2954b3 100644 (file)
@@ -76,8 +76,8 @@ gbt_float8key_cmp(const void *a, const void *b)
 static float8
 gbt_float8_dist(const void *a, const void *b)
 {
-   float8      arg1 = *(const float8 *)a;
-   float8      arg2 = *(const float8 *)b;
+   float8      arg1 = *(const float8 *) a;
+   float8      arg2 = *(const float8 *) b;
    float8      r;
 
    r = arg1 - arg2;
@@ -102,7 +102,7 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(float8_dist);
-Datum       float8_dist(PG_FUNCTION_ARGS);
+Datum      float8_dist(PG_FUNCTION_ARGS);
 Datum
 float8_dist(PG_FUNCTION_ARGS)
 {
@@ -113,7 +113,7 @@ float8_dist(PG_FUNCTION_ARGS)
    r = a - b;
    CHECKFLOATVAL(r, isinf(a) || isinf(b), true);
 
-   PG_RETURN_FLOAT8( Abs(r) );
+   PG_RETURN_FLOAT8(Abs(r));
 }
 
 /**************************************************
@@ -169,7 +169,7 @@ gbt_float8_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index c06d170a5e1af5c272fff56d0d775bdc47ed5ffc..7841145b53f6e49da3d8f9e13918bd1358023f8f 100644 (file)
@@ -94,12 +94,12 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(int2_dist);
-Datum       int2_dist(PG_FUNCTION_ARGS);
+Datum      int2_dist(PG_FUNCTION_ARGS);
 Datum
 int2_dist(PG_FUNCTION_ARGS)
 {
-   int2        a = PG_GETARG_INT16(0);
-   int2        b = PG_GETARG_INT16(1);
+   int2        a = PG_GETARG_INT16(0);
+   int2        b = PG_GETARG_INT16(1);
    int2        r;
    int2        ra;
 
@@ -169,7 +169,7 @@ gbt_int2_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index ef7af524e76bdfab212fd332b8bd3b0778237ba6..0e4b4f85b0eb448ce004e2863b7b9cdc79c8b40d 100644 (file)
@@ -95,14 +95,14 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(int4_dist);
-Datum       int4_dist(PG_FUNCTION_ARGS);
+Datum      int4_dist(PG_FUNCTION_ARGS);
 Datum
 int4_dist(PG_FUNCTION_ARGS)
 {
-   int4        a = PG_GETARG_INT32(0);
-   int4        b = PG_GETARG_INT32(1);
-   int4        r;
-   int4        ra;
+   int4        a = PG_GETARG_INT32(0);
+   int4        b = PG_GETARG_INT32(1);
+   int4        r;
+   int4        ra;
 
    r = a - b;
    ra = Abs(r);
@@ -111,7 +111,7 @@ int4_dist(PG_FUNCTION_ARGS)
    if (ra < 0 || (!SAMESIGN(a, b) && !SAMESIGN(r, a)))
        ereport(ERROR,
                (errcode(ERRCODE_NUMERIC_VALUE_OUT_OF_RANGE),
-                        errmsg("integer out of range")));
+                errmsg("integer out of range")));
 
    PG_RETURN_INT32(ra);
 }
@@ -170,7 +170,7 @@ gbt_int4_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index 1f14d82891d8c47cd59487d2fd8a1d41a4054e96..d54113d3936660a1b5ab5b5b8a5d700b71e09551 100644 (file)
@@ -95,14 +95,14 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(int8_dist);
-Datum       int8_dist(PG_FUNCTION_ARGS);
+Datum      int8_dist(PG_FUNCTION_ARGS);
 Datum
 int8_dist(PG_FUNCTION_ARGS)
 {
-   int64       a = PG_GETARG_INT64(0);
-   int64       b = PG_GETARG_INT64(1);
-   int64       r;
-   int64       ra;
+   int64       a = PG_GETARG_INT64(0);
+   int64       b = PG_GETARG_INT64(1);
+   int64       r;
+   int64       ra;
 
    r = a - b;
    ra = Abs(r);
@@ -111,7 +111,7 @@ int8_dist(PG_FUNCTION_ARGS)
    if (ra < 0 || (!SAMESIGN(a, b) && !SAMESIGN(r, a)))
        ereport(ERROR,
                (errcode(ERRCODE_NUMERIC_VALUE_OUT_OF_RANGE),
-                        errmsg("bigint out of range")));
+                errmsg("bigint out of range")));
 
    PG_RETURN_INT64(ra);
 }
@@ -170,7 +170,7 @@ gbt_int8_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index 5195284afa1be65f3a66acf779d7a1a6c99236f6..137a5fcd7f4e2e9487782b28d9a8b6ec46ecc506 100644 (file)
@@ -88,7 +88,7 @@ intr2num(const Interval *i)
 static float8
 gbt_intv_dist(const void *a, const void *b)
 {
-   return (float8)Abs(intr2num((Interval*)a) - intr2num((Interval*)b));
+   return (float8) Abs(intr2num((Interval *) a) - intr2num((Interval *) b));
 }
 
 /*
@@ -127,7 +127,7 @@ abs_interval(Interval *a)
 }
 
 PG_FUNCTION_INFO_V1(interval_dist);
-Datum       interval_dist(PG_FUNCTION_ARGS);
+Datum      interval_dist(PG_FUNCTION_ARGS);
 Datum
 interval_dist(PG_FUNCTION_ARGS)
 {
@@ -240,7 +240,7 @@ gbt_intv_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) query, GIST_LEAF(entry), &tinfo)
+            gbt_num_distance(&key, (void *) query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index c81dd31799eb9a2f61b86ab29d2f05adc8a2db31..3b0929b42bb0147a6dbcbb240d676df5a21fb83b 100644 (file)
@@ -101,13 +101,13 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(oid_dist);
-Datum       oid_dist(PG_FUNCTION_ARGS);
+Datum      oid_dist(PG_FUNCTION_ARGS);
 Datum
 oid_dist(PG_FUNCTION_ARGS)
 {
-    Oid            a = PG_GETARG_OID(0);
-   Oid         b = PG_GETARG_OID(1);
-   Oid         res;
+   Oid         a = PG_GETARG_OID(0);
+   Oid         b = PG_GETARG_OID(1);
+   Oid         res;
 
    if (a < b)
        res = b - a;
@@ -170,7 +170,7 @@ gbt_oid_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index 44f6923409f4b6a6fb1682751deae1507f76c5be..e9cfe33f45594fbe5db9077dfe97ef4472f7b025 100644 (file)
@@ -119,7 +119,7 @@ gbt_time_dist(const void *a, const void *b)
 {
    const TimeADT *aa = (const TimeADT *) a;
    const TimeADT *bb = (const TimeADT *) b;
-   Interval      *i;
+   Interval   *i;
 
    i = DatumGetIntervalP(DirectFunctionCall2(time_mi_time,
                                              TimeADTGetDatumFast(*aa),
@@ -143,7 +143,7 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(time_dist);
-Datum       time_dist(PG_FUNCTION_ARGS);
+Datum      time_dist(PG_FUNCTION_ARGS);
 Datum
 time_dist(PG_FUNCTION_ARGS)
 {
@@ -239,7 +239,7 @@ gbt_time_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
index 9a0ec07a1e742bf4003ee5b0a5f1b7ce2ef40d72..9d3a5919a0ee078eb0be8c4097c4a01471ab396e 100644 (file)
@@ -120,7 +120,7 @@ gbt_ts_dist(const void *a, const void *b)
 {
    const Timestamp *aa = (const Timestamp *) a;
    const Timestamp *bb = (const Timestamp *) b;
-   Interval      *i;
+   Interval   *i;
 
    if (TIMESTAMP_NOT_FINITE(*aa) || TIMESTAMP_NOT_FINITE(*bb))
        return get_float8_infinity();
@@ -147,17 +147,17 @@ static const gbtree_ninfo tinfo =
 
 
 PG_FUNCTION_INFO_V1(ts_dist);
-Datum       ts_dist(PG_FUNCTION_ARGS);
+Datum      ts_dist(PG_FUNCTION_ARGS);
 Datum
 ts_dist(PG_FUNCTION_ARGS)
 {
    Timestamp   a = PG_GETARG_TIMESTAMP(0);
    Timestamp   b = PG_GETARG_TIMESTAMP(1);
-    Interval      *r;
+   Interval   *r;
 
    if (TIMESTAMP_NOT_FINITE(a) || TIMESTAMP_NOT_FINITE(b))
    {
-       Interval *p = palloc(sizeof(Interval));
+       Interval   *p = palloc(sizeof(Interval));
 
        p->day = INT_MAX;
        p->month = INT_MAX;
@@ -169,25 +169,24 @@ ts_dist(PG_FUNCTION_ARGS)
        PG_RETURN_INTERVAL_P(p);
    }
    else
-
-   r = DatumGetIntervalP(DirectFunctionCall2(timestamp_mi,
-                                             PG_GETARG_DATUM(0),
-                                             PG_GETARG_DATUM(1)));
-   PG_RETURN_INTERVAL_P( abs_interval(r) );
+       r = DatumGetIntervalP(DirectFunctionCall2(timestamp_mi,
+                                                 PG_GETARG_DATUM(0),
+                                                 PG_GETARG_DATUM(1)));
+   PG_RETURN_INTERVAL_P(abs_interval(r));
 }
 
 PG_FUNCTION_INFO_V1(tstz_dist);
-Datum       tstz_dist(PG_FUNCTION_ARGS);
+Datum      tstz_dist(PG_FUNCTION_ARGS);
 Datum
 tstz_dist(PG_FUNCTION_ARGS)
 {
-   TimestampTz a = PG_GETARG_TIMESTAMPTZ(0);
-   TimestampTz b = PG_GETARG_TIMESTAMPTZ(1);
-    Interval      *r;
+   TimestampTz a = PG_GETARG_TIMESTAMPTZ(0);
+   TimestampTz b = PG_GETARG_TIMESTAMPTZ(1);
+   Interval   *r;
 
    if (TIMESTAMP_NOT_FINITE(a) || TIMESTAMP_NOT_FINITE(b))
    {
-       Interval *p = palloc(sizeof(Interval));
+       Interval   *p = palloc(sizeof(Interval));
 
        p->day = INT_MAX;
        p->month = INT_MAX;
@@ -202,7 +201,7 @@ tstz_dist(PG_FUNCTION_ARGS)
    r = DatumGetIntervalP(DirectFunctionCall2(timestamp_mi,
                                              PG_GETARG_DATUM(0),
                                              PG_GETARG_DATUM(1)));
-   PG_RETURN_INTERVAL_P( abs_interval(r) );
+   PG_RETURN_INTERVAL_P(abs_interval(r));
 }
 
 
@@ -309,7 +308,7 @@ gbt_ts_distance(PG_FUNCTION_ARGS)
    key.upper = (GBT_NUMKEY *) &kkk->upper;
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
+           gbt_num_distance(&key, (void *) &query, GIST_LEAF(entry), &tinfo)
        );
 }
 
@@ -354,7 +353,7 @@ gbt_tstz_distance(PG_FUNCTION_ARGS)
    qqq = tstz_to_ts_gmt(query);
 
    PG_RETURN_FLOAT8(
-                  gbt_num_distance(&key, (void *) &qqq, GIST_LEAF(entry), &tinfo)
+             gbt_num_distance(&key, (void *) &qqq, GIST_LEAF(entry), &tinfo)
        );
 }
 
index 17440a191b271a57afe3e445a3f522a3ead39a69..64c95854df89d15376ecc6dd7994fe6a971276e0 100644 (file)
@@ -223,8 +223,8 @@ gbt_num_consistent(const GBT_NUMKEY_R *key,
            retval = (*tinfo->f_le) (query, key->upper);
            break;
        case BtreeGistNotEqualStrategyNumber:
-           retval = (! ((*tinfo->f_eq) (query, key->lower) &&
-               (*tinfo->f_eq) (query, key->upper)))  ? true : false;
+           retval = (!((*tinfo->f_eq) (query, key->lower) &&
+                       (*tinfo->f_eq) (query, key->upper))) ? true : false;
            break;
        default:
            retval = false;
@@ -249,9 +249,9 @@ gbt_num_distance(const GBT_NUMKEY_R *key,
    if (tinfo->f_dist == NULL)
        elog(ERROR, "KNN search is not supported for btree_gist type %d",
             (int) tinfo->t);
-   if ( tinfo->f_le(query, key->lower) )
+   if (tinfo->f_le(query, key->lower))
        retval = tinfo->f_dist(query, key->lower);
-   else if ( tinfo->f_ge(query, key->upper) )
+   else if (tinfo->f_ge(query, key->upper))
        retval = tinfo->f_dist(query, key->upper);
    else
        retval = 0.0;
index 243d3b5cb99087a3c166c922c72031c5bc3cac39..8935ed66306a1079fd29daabc10b435f12462c77 100644 (file)
@@ -46,7 +46,7 @@ typedef struct
    bool        (*f_le) (const void *, const void *);   /* less or equal */
    bool        (*f_lt) (const void *, const void *);   /* less than */
    int         (*f_cmp) (const void *, const void *);  /* key compare function */
-   float8      (*f_dist) (const void *, const void *); /* key distance function */
+   float8      (*f_dist) (const void *, const void *); /* key distance function */
 } gbtree_ninfo;
 
 
@@ -94,7 +94,7 @@ typedef struct
 
 #define GET_FLOAT_DISTANCE(t, arg1, arg2)  Abs( ((float8) *((const t *) (arg1))) - ((float8) *((const t *) (arg2))) )
 
-#define SAMESIGN(a,b)   (((a) < 0) == ((b) < 0))
+#define SAMESIGN(a,b)  (((a) < 0) == ((b) < 0))
 
 /*
  * check to see if a float4/8 val has underflowed or overflowed
@@ -121,7 +121,7 @@ extern bool gbt_num_consistent(const GBT_NUMKEY_R *key, const void *query,
                   const gbtree_ninfo *tinfo);
 
 extern float8 gbt_num_distance(const GBT_NUMKEY_R *key, const void *query,
-                  bool is_leaf, const gbtree_ninfo *tinfo);
+                bool is_leaf, const gbtree_ninfo *tinfo);
 
 extern GIST_SPLITVEC *gbt_num_picksplit(const GistEntryVector *entryvec, GIST_SPLITVEC *v,
                  const gbtree_ninfo *tinfo);
index 8f3173e499789c02f7d756ff6db42220b5a6cd06..d74013af8828d987a3c0bc4ba5a9b12f74597b21 100644 (file)
@@ -598,7 +598,7 @@ gbt_var_consistent(
                    || gbt_var_node_pf_match(key, query, tinfo);
            break;
        case BtreeGistNotEqualStrategyNumber:
-           retval = ! ((*tinfo->f_eq) (query, key->lower) && (*tinfo->f_eq) (query, key->upper));
+           retval = !((*tinfo->f_eq) (query, key->lower) && (*tinfo->f_eq) (query, key->upper));
            break;
        default:
            retval = FALSE;
index 974806f1b6ca9e3d22b9db47dbfb5e26cbfa5217..5deb43fa9b819299f21635544920ea7ca6f39580 100644 (file)
@@ -18,7 +18,7 @@
 PG_MODULE_MAGIC;
 
 /* Entrypoint of the module */
-void _PG_init(void);
+void       _PG_init(void);
 
 static void
 dummy_object_relabel(const ObjectAddress *object, const char *seclabel)
index 6a84a00e8d39558b07d7767d496fa5f6c334d24d..466c015107db28b46601b759ad4542d6589a597c 100644 (file)
@@ -45,17 +45,17 @@ struct FileFdwOption
  */
 static struct FileFdwOption valid_options[] = {
    /* File options */
-   { "filename",       ForeignTableRelationId },
+   {"filename", ForeignTableRelationId},
 
    /* Format options */
    /* oids option is not supported */
-   { "format",         ForeignTableRelationId },
-   { "header",         ForeignTableRelationId },
-   { "delimiter",      ForeignTableRelationId },
-   { "quote",          ForeignTableRelationId },
-   { "escape",         ForeignTableRelationId },
-   { "null",           ForeignTableRelationId },
-   { "encoding",       ForeignTableRelationId },
+   {"format", ForeignTableRelationId},
+   {"header", ForeignTableRelationId},
+   {"delimiter", ForeignTableRelationId},
+   {"quote", ForeignTableRelationId},
+   {"escape", ForeignTableRelationId},
+   {"null", ForeignTableRelationId},
+   {"encoding", ForeignTableRelationId},
 
    /*
     * force_quote is not supported by file_fdw because it's for COPY TO.
@@ -68,7 +68,7 @@ static struct FileFdwOption valid_options[] = {
     */
 
    /* Sentinel */
-   { NULL,         InvalidOid }
+   {NULL, InvalidOid}
 };
 
 /*
@@ -76,9 +76,9 @@ static struct FileFdwOption valid_options[] = {
  */
 typedef struct FileFdwExecutionState
 {
-   char           *filename;   /* file to read */
-   List           *options;    /* merged COPY options, excluding filename */
-   CopyState       cstate;     /* state of reading file */
+   char       *filename;       /* file to read */
+   List       *options;        /* merged COPY options, excluding filename */
+   CopyState   cstate;         /* state of reading file */
 } FileFdwExecutionState;
 
 /*
@@ -94,8 +94,8 @@ PG_FUNCTION_INFO_V1(file_fdw_validator);
  * FDW callback routines
  */
 static FdwPlan *filePlanForeignScan(Oid foreigntableid,
-                                   PlannerInfo *root,
-                                   RelOptInfo *baserel);
+                   PlannerInfo *root,
+                   RelOptInfo *baserel);
 static void fileExplainForeignScan(ForeignScanState *node, ExplainState *es);
 static void fileBeginForeignScan(ForeignScanState *node, int eflags);
 static TupleTableSlot *fileIterateForeignScan(ForeignScanState *node);
@@ -109,8 +109,8 @@ static bool is_valid_option(const char *option, Oid context);
 static void fileGetOptions(Oid foreigntableid,
               char **filename, List **other_options);
 static void estimate_costs(PlannerInfo *root, RelOptInfo *baserel,
-                          const char *filename,
-                          Cost *startup_cost, Cost *total_cost);
+              const char *filename,
+              Cost *startup_cost, Cost *total_cost);
 
 
 /*
@@ -149,16 +149,16 @@ file_fdw_validator(PG_FUNCTION_ARGS)
 
    /*
     * Only superusers are allowed to set options of a file_fdw foreign table.
-    * This is because the filename is one of those options, and we don't
-    * want non-superusers to be able to determine which file gets read.
+    * This is because the filename is one of those options, and we don't want
+    * non-superusers to be able to determine which file gets read.
     *
     * Putting this sort of permissions check in a validator is a bit of a
     * crock, but there doesn't seem to be any other place that can enforce
     * the check more cleanly.
     *
-    * Note that the valid_options[] array disallows setting filename at
-    * any options level other than foreign table --- otherwise there'd
-    * still be a security hole.
+    * Note that the valid_options[] array disallows setting filename at any
+    * options level other than foreign table --- otherwise there'd still be a
+    * security hole.
     */
    if (catalog == ForeignTableRelationId && !superuser())
        ereport(ERROR,
@@ -171,7 +171,7 @@ file_fdw_validator(PG_FUNCTION_ARGS)
     */
    foreach(cell, options_list)
    {
-       DefElem    *def = (DefElem *) lfirst(cell);
+       DefElem    *def = (DefElem *) lfirst(cell);
 
        if (!is_valid_option(def->defname, catalog))
        {
@@ -276,7 +276,7 @@ fileGetOptions(Oid foreigntableid,
    prev = NULL;
    foreach(lc, options)
    {
-       DefElem    *def = (DefElem *) lfirst(lc);
+       DefElem    *def = (DefElem *) lfirst(lc);
 
        if (strcmp(def->defname, "filename") == 0)
        {
@@ -302,7 +302,7 @@ filePlanForeignScan(Oid foreigntableid,
                    PlannerInfo *root,
                    RelOptInfo *baserel)
 {
-   FdwPlan    *fdwplan;
+   FdwPlan    *fdwplan;
    char       *filename;
    List       *options;
 
@@ -313,7 +313,7 @@ filePlanForeignScan(Oid foreigntableid,
    fdwplan = makeNode(FdwPlan);
    estimate_costs(root, baserel, filename,
                   &fdwplan->startup_cost, &fdwplan->total_cost);
-   fdwplan->fdw_private = NIL;             /* not used */
+   fdwplan->fdw_private = NIL; /* not used */
 
    return fdwplan;
 }
@@ -337,7 +337,7 @@ fileExplainForeignScan(ForeignScanState *node, ExplainState *es)
    /* Suppress file size if we're not showing cost details */
    if (es->costs)
    {
-       struct stat     stat_buf;
+       struct stat stat_buf;
 
        if (stat(filename, &stat_buf) == 0)
            ExplainPropertyLong("Foreign File Size", (long) stat_buf.st_size,
@@ -368,8 +368,8 @@ fileBeginForeignScan(ForeignScanState *node, int eflags)
                   &filename, &options);
 
    /*
-    * Create CopyState from FDW options.  We always acquire all columns,
-    * so as to match the expected ScanTupleSlot signature.
+    * Create CopyState from FDW options.  We always acquire all columns, so
+    * as to match the expected ScanTupleSlot signature.
     */
    cstate = BeginCopyFrom(node->ss.ss_currentRelation,
                           filename,
@@ -398,7 +398,7 @@ fileIterateForeignScan(ForeignScanState *node)
 {
    FileFdwExecutionState *festate = (FileFdwExecutionState *) node->fdw_state;
    TupleTableSlot *slot = node->ss.ss_ScanTupleSlot;
-   bool            found;
+   bool        found;
    ErrorContextCallback errcontext;
 
    /* Set up callback to identify error line number. */
@@ -410,8 +410,8 @@ fileIterateForeignScan(ForeignScanState *node)
    /*
     * The protocol for loading a virtual tuple into a slot is first
     * ExecClearTuple, then fill the values/isnull arrays, then
-    * ExecStoreVirtualTuple.  If we don't find another row in the file,
-    * we just skip the last step, leaving the slot empty as required.
+    * ExecStoreVirtualTuple.  If we don't find another row in the file, we
+    * just skip the last step, leaving the slot empty as required.
     *
     * We can pass ExprContext = NULL because we read all columns from the
     * file, so no need to evaluate default expressions.
@@ -471,17 +471,17 @@ estimate_costs(PlannerInfo *root, RelOptInfo *baserel,
               const char *filename,
               Cost *startup_cost, Cost *total_cost)
 {
-   struct stat     stat_buf;
-   BlockNumber     pages;
-   int             tuple_width;
-   double          ntuples;
-   double          nrows;
-   Cost            run_cost = 0;
-   Cost            cpu_per_tuple;
+   struct stat stat_buf;
+   BlockNumber pages;
+   int         tuple_width;
+   double      ntuples;
+   double      nrows;
+   Cost        run_cost = 0;
+   Cost        cpu_per_tuple;
 
    /*
-    * Get size of the file.  It might not be there at plan time, though,
-    * in which case we have to use a default estimate.
+    * Get size of the file.  It might not be there at plan time, though, in
+    * which case we have to use a default estimate.
     */
    if (stat(filename, &stat_buf) < 0)
        stat_buf.st_size = 10 * BLCKSZ;
@@ -489,7 +489,7 @@ estimate_costs(PlannerInfo *root, RelOptInfo *baserel,
    /*
     * Convert size to pages for use in I/O cost estimate below.
     */
-   pages = (stat_buf.st_size + (BLCKSZ-1)) / BLCKSZ;
+   pages = (stat_buf.st_size + (BLCKSZ - 1)) / BLCKSZ;
    if (pages < 1)
        pages = 1;
 
@@ -505,10 +505,9 @@ estimate_costs(PlannerInfo *root, RelOptInfo *baserel,
    ntuples = clamp_row_est((double) stat_buf.st_size / (double) tuple_width);
 
    /*
-    * Now estimate the number of rows returned by the scan after applying
-    * the baserestrictinfo quals.  This is pretty bogus too, since the
-    * planner will have no stats about the relation, but it's better than
-    * nothing.
+    * Now estimate the number of rows returned by the scan after applying the
+    * baserestrictinfo quals.  This is pretty bogus too, since the planner
+    * will have no stats about the relation, but it's better than nothing.
     */
    nrows = ntuples *
        clauselist_selectivity(root,
@@ -523,7 +522,7 @@ estimate_costs(PlannerInfo *root, RelOptInfo *baserel,
    baserel->rows = nrows;
 
    /*
-    * Now estimate costs.  We estimate costs almost the same way as
+    * Now estimate costs.  We estimate costs almost the same way as
     * cost_seqscan(), thus assuming that I/O costs are equivalent to a
     * regular table file of the same size.  However, we take per-tuple CPU
     * costs as 10x of a seqscan, to account for the cost of parsing records.
index 3d85d4175fb1e08be0e0b10172a78521df7f1fcf..a84c46a4a408fc7d17ba44137d871e9a45b20e05 100644 (file)
@@ -23,7 +23,7 @@
  */
 #ifdef LEVENSHTEIN_LESS_EQUAL
 static int levenshtein_less_equal_internal(text *s, text *t,
-                    int ins_c, int del_c, int sub_c, int max_d);
+                               int ins_c, int del_c, int sub_c, int max_d);
 #else
 static int levenshtein_internal(text *s, text *t,
                     int ins_c, int del_c, int sub_c);
@@ -50,7 +50,7 @@ static int levenshtein_internal(text *s, text *t,
  * array.
  *
  * If max_d >= 0, we only need to provide an accurate answer when that answer
- * is less than or equal to the bound.  From any cell in the matrix, there is
+ * is less than or equal to the bound. From any cell in the matrix, there is
  * theoretical "minimum residual distance" from that cell to the last column
  * of the final row.  This minimum residual distance is zero when the
  * untransformed portions of the strings are of equal length (because we might
@@ -87,11 +87,13 @@ levenshtein_internal(text *s, text *t,
 
    /*
     * For levenshtein_less_equal_internal, we have real variables called
-    * start_column and stop_column; otherwise it's just short-hand for 0
-    * and m.
+    * start_column and stop_column; otherwise it's just short-hand for 0 and
+    * m.
     */
 #ifdef LEVENSHTEIN_LESS_EQUAL
-   int        start_column, stop_column;
+   int         start_column,
+               stop_column;
+
 #undef START_COLUMN
 #undef STOP_COLUMN
 #define START_COLUMN start_column
@@ -139,16 +141,16 @@ levenshtein_internal(text *s, text *t,
    stop_column = m + 1;
 
    /*
-    * If max_d >= 0, determine whether the bound is impossibly tight.  If so,
+    * If max_d >= 0, determine whether the bound is impossibly tight.  If so,
     * return max_d + 1 immediately.  Otherwise, determine whether it's tight
     * enough to limit the computation we must perform.  If so, figure out
     * initial stop column.
     */
    if (max_d >= 0)
    {
-       int     min_theo_d;     /* Theoretical minimum distance. */
-       int     max_theo_d;     /* Theoretical maximum distance. */
-       int     net_inserts = n - m;
+       int         min_theo_d; /* Theoretical minimum distance. */
+       int         max_theo_d; /* Theoretical maximum distance. */
+       int         net_inserts = n - m;
 
        min_theo_d = net_inserts < 0 ?
            -net_inserts * del_c : net_inserts * ins_c;
@@ -162,20 +164,20 @@ levenshtein_internal(text *s, text *t,
        else if (ins_c + del_c > 0)
        {
            /*
-            * Figure out how much of the first row of the notional matrix
-            * we need to fill in.  If the string is growing, the theoretical
+            * Figure out how much of the first row of the notional matrix we
+            * need to fill in.  If the string is growing, the theoretical
             * minimum distance already incorporates the cost of deleting the
-            * number of characters necessary to make the two strings equal
-            * in length.  Each additional deletion forces another insertion,
-            * so the best-case total cost increases by ins_c + del_c.
-            * If the string is shrinking, the minimum theoretical cost
-            * assumes no excess deletions; that is, we're starting no futher
-            * right than column n - m.  If we do start further right, the
-            * best-case total cost increases by ins_c + del_c for each move
-            * right.
+            * number of characters necessary to make the two strings equal in
+            * length.  Each additional deletion forces another insertion, so
+            * the best-case total cost increases by ins_c + del_c. If the
+            * string is shrinking, the minimum theoretical cost assumes no
+            * excess deletions; that is, we're starting no futher right than
+            * column n - m.  If we do start further right, the best-case
+            * total cost increases by ins_c + del_c for each move right.
             */
-           int slack_d = max_d - min_theo_d;
-           int best_column = net_inserts < 0 ? -net_inserts : 0;
+           int         slack_d = max_d - min_theo_d;
+           int         best_column = net_inserts < 0 ? -net_inserts : 0;
+
            stop_column = best_column + (slack_d / (ins_c + del_c)) + 1;
            if (stop_column > m)
                stop_column = m + 1;
@@ -185,15 +187,15 @@ levenshtein_internal(text *s, text *t,
 
    /*
     * In order to avoid calling pg_mblen() repeatedly on each character in s,
-    * we cache all the lengths before starting the main loop -- but if all the
-    * characters in both strings are single byte, then we skip this and use
-    * a fast-path in the main loop.  If only one string contains multi-byte
-    * characters, we still build the array, so that the fast-path needn't
-    * deal with the case where the array hasn't been initialized.
+    * we cache all the lengths before starting the main loop -- but if all
+    * the characters in both strings are single byte, then we skip this and
+    * use a fast-path in the main loop.  If only one string contains
+    * multi-byte characters, we still build the array, so that the fast-path
+    * needn't deal with the case where the array hasn't been initialized.
     */
    if (m != s_bytes || n != t_bytes)
    {
-       int     i;
+       int         i;
        const char *cp = s_data;
 
        s_char_len = (int *) palloc((m + 1) * sizeof(int));
@@ -214,8 +216,8 @@ levenshtein_internal(text *s, text *t,
    curr = prev + m;
 
    /*
-    * To transform the first i characters of s into the first 0 characters
-    * of t, we must perform i deletions.
+    * To transform the first i characters of s into the first 0 characters of
+    * t, we must perform i deletions.
     */
    for (i = START_COLUMN; i < STOP_COLUMN; i++)
        prev[i] = i * del_c;
@@ -228,6 +230,7 @@ levenshtein_internal(text *s, text *t,
        int         y_char_len = n != t_bytes + 1 ? pg_mblen(y) : 1;
 
 #ifdef LEVENSHTEIN_LESS_EQUAL
+
        /*
         * In the best case, values percolate down the diagonal unchanged, so
         * we must increment stop_column unless it's already on the right end
@@ -241,10 +244,10 @@ levenshtein_internal(text *s, text *t,
        }
 
        /*
-        * The main loop fills in curr, but curr[0] needs a special case:
-        * to transform the first 0 characters of s into the first j
-        * characters of t, we must perform j insertions.  However, if
-        * start_column > 0, this special case does not apply.
+        * The main loop fills in curr, but curr[0] needs a special case: to
+        * transform the first 0 characters of s into the first j characters
+        * of t, we must perform j insertions.  However, if start_column > 0,
+        * this special case does not apply.
         */
        if (start_column == 0)
        {
@@ -285,7 +288,7 @@ levenshtein_internal(text *s, text *t,
                 */
                ins = prev[i] + ins_c;
                del = curr[i - 1] + del_c;
-               if (x[x_char_len-1] == y[y_char_len-1]
+               if (x[x_char_len - 1] == y[y_char_len - 1]
                    && x_char_len == y_char_len &&
                    (x_char_len == 1 || rest_of_char_same(x, y, x_char_len)))
                    sub = prev[i - 1];
@@ -331,6 +334,7 @@ levenshtein_internal(text *s, text *t,
        y += y_char_len;
 
 #ifdef LEVENSHTEIN_LESS_EQUAL
+
        /*
         * This chunk of code represents a significant performance hit if used
         * in the case where there is no max_d bound.  This is probably not
@@ -348,15 +352,16 @@ levenshtein_internal(text *s, text *t,
             * string, so we want to find the value for zp where where (n - 1)
             * - j = (m - 1) - zp.
             */
-           int zp = j - (n - m);
+           int         zp = j - (n - m);
 
            /* Check whether the stop column can slide left. */
            while (stop_column > 0)
            {
-               int ii = stop_column - 1;
-               int net_inserts = ii - zp;
+               int         ii = stop_column - 1;
+               int         net_inserts = ii - zp;
+
                if (prev[ii] + (net_inserts > 0 ? net_inserts * ins_c :
-                   -net_inserts * del_c) <= max_d)
+                               -net_inserts * del_c) <= max_d)
                    break;
                stop_column--;
            }
@@ -364,14 +369,16 @@ levenshtein_internal(text *s, text *t,
            /* Check whether the start column can slide right. */
            while (start_column < stop_column)
            {
-               int net_inserts = start_column - zp;
+               int         net_inserts = start_column - zp;
+
                if (prev[start_column] +
                    (net_inserts > 0 ? net_inserts * ins_c :
-                   -net_inserts * del_c) <= max_d)
+                    -net_inserts * del_c) <= max_d)
                    break;
+
                /*
-                * We'll never again update these values, so we must make
-                * sure there's nothing here that could confuse any future
+                * We'll never again update these values, so we must make sure
+                * there's nothing here that could confuse any future
                 * iteration of the outer loop.
                 */
                prev[start_column] = max_d + 1;
index d55674c79f902f5a4091899a48e3121adf12dd84..2007801cf0c97300cc201af5a19cdfd9f3c14a04 100644 (file)
@@ -13,7 +13,7 @@
 /*
  * When using a GIN index for hstore, we choose to index both keys and values.
  * The storage format is "text" values, with K, V, or N prepended to the string
- * to indicate key, value, or null values.  (As of 9.1 it might be better to
+ * to indicate key, value, or null values. (As of 9.1 it might be better to
  * store null values as nulls, but we'll keep it this way for on-disk
  * compatibility.)
  */
@@ -168,7 +168,7 @@ gin_consistent_hstore(PG_FUNCTION_ARGS)
    {
        /*
         * Index doesn't have information about correspondence of keys and
-        * values, so we need recheck.  However, if not all the keys are
+        * values, so we need recheck.  However, if not all the keys are
         * present, we can fail at once.
         */
        *recheck = true;
index cb6200ab1dcfbb9807e39c190e9c662215418424..5b278c14ffe249f3e3208f992073b337e9fff622 100644 (file)
@@ -437,7 +437,7 @@ hstore_delete_hstore(PG_FUNCTION_ARGS)
            if (snullval != HS_VALISNULL(es2, j)
                || (!snullval
                    && (svallen != HS_VALLEN(es2, j)
-                       || memcmp(HS_VAL(es, ps, i), HS_VAL(es2, ps2, j), svallen) != 0)))
+           || memcmp(HS_VAL(es, ps, i), HS_VAL(es2, ps2, j), svallen) != 0)))
            {
                HS_COPYITEM(ed, bufd, pd,
                            HS_KEY(es, ps, i), HS_KEYLEN(es, i),
@@ -1000,7 +1000,7 @@ hstore_contains(PG_FUNCTION_ARGS)
            if (nullval != HS_VALISNULL(ve, idx)
                || (!nullval
                    && (vallen != HS_VALLEN(ve, idx)
-           || memcmp(HS_VAL(te, tstr, i), HS_VAL(ve, vstr, idx), vallen))))
+            || memcmp(HS_VAL(te, tstr, i), HS_VAL(ve, vstr, idx), vallen))))
                res = false;
        }
        else
index 072e8cc89773b052be3f0a805067db7ab3b0c8bc..4e63f6d66c145072984360be989723cd682b9924 100644 (file)
@@ -98,7 +98,7 @@ gettoken(WORKSTATE *state, int4 *val)
                }
                else
                {
-                   long    lval;
+                   long        lval;
 
                    nnn[innn] = '\0';
                    errno = 0;
@@ -355,8 +355,8 @@ gin_bool_consistent(QUERYTYPE *query, bool *check)
        return FALSE;
 
    /*
-    * Set up data for checkcondition_gin.  This must agree with the
-    * query extraction code in ginint4_queryextract.
+    * Set up data for checkcondition_gin.  This must agree with the query
+    * extraction code in ginint4_queryextract.
     */
    gcv.first = items;
    gcv.mapped_check = (bool *) palloc(sizeof(bool) * query->size);
index 3ef5c4635a150b94a90651a375e1e523ee9f78cd..9abe54e55f9f4501c2999237e62b06dcaf86ca66 100644 (file)
@@ -34,8 +34,8 @@ ginint4_queryextract(PG_FUNCTION_ARGS)
 
        /*
         * If the query doesn't have any required primitive values (for
-        * instance, it's something like '! 42'), we have to do a full
-        * index scan.
+        * instance, it's something like '! 42'), we have to do a full index
+        * scan.
         */
        if (query_has_required_values(query))
            *searchMode = GIN_SEARCH_MODE_DEFAULT;
@@ -95,7 +95,7 @@ ginint4_queryextract(PG_FUNCTION_ARGS)
            case RTOldContainsStrategyNumber:
                if (*nentries > 0)
                    *searchMode = GIN_SEARCH_MODE_DEFAULT;
-               else                /* everything contains the empty set */
+               else    /* everything contains the empty set */
                    *searchMode = GIN_SEARCH_MODE_ALL;
                break;
            default:
@@ -116,6 +116,7 @@ ginint4_consistent(PG_FUNCTION_ARGS)
    bool       *check = (bool *) PG_GETARG_POINTER(0);
    StrategyNumber strategy = PG_GETARG_UINT16(1);
    int32       nkeys = PG_GETARG_INT32(3);
+
    /* Pointer     *extra_data = (Pointer *) PG_GETARG_POINTER(4); */
    bool       *recheck = (bool *) PG_GETARG_POINTER(5);
    bool        res = FALSE;
index ddf07f042b24140a51f2311099c4accfae26e1f4..bfc55501dbcdd6f9ba361808b69a712207cb0031 100644 (file)
@@ -183,7 +183,7 @@ rt__int_size(ArrayType *a, float *size)
    *size = (float) ARRNELEMS(a);
 }
 
-/* Sort the given data (len >= 2).  Return true if any duplicates found */
+/* Sort the given data (len >= 2). Return true if any duplicates found */
 bool
 isort(int4 *a, int len)
 {
@@ -195,7 +195,7 @@ isort(int4 *a, int len)
    bool        r = FALSE;
 
    /*
-    * We use a simple insertion sort.  While this is O(N^2) in the worst
+    * We use a simple insertion sort.  While this is O(N^2) in the worst
     * case, it's quite fast if the input is already sorted or nearly so.
     * Also, for not-too-large inputs it's faster than more complex methods
     * anyhow.
index c0301ced1e0ceea3e8265903603485ed2f1ec151..dbda6fb7241400063b86ca2deb1bd28872a3361c 100644 (file)
@@ -988,4 +988,3 @@ const char *ISBN_range_new[][2] = {
    {"10-976000", "10-999999"},
    {NULL, NULL},
 };
-
index 79892077c8c012225cf82fc716d3208a41b3564a..d96eef2c5a618910bbf80ed43f3a41cac1dd82f4 100644 (file)
@@ -25,9 +25,9 @@
 #ifdef HAVE_GETOPT_H
 #include <getopt.h>
 #endif
-#else  /* WIN32 */
+#else                          /* WIN32 */
 extern int getopt(int argc, char *const argv[], const char *optstring);
-#endif /* ! WIN32 */
+#endif   /* ! WIN32 */
 
 extern char *optarg;
 extern int optind;
index 87cf8c55cf491831bbf5a9db79ca1eb3e9b81cc9..0236b87498fa27a4c445046469f89b7615e75632 100644 (file)
@@ -137,7 +137,7 @@ typedef enum
    PGSS_TRACK_NONE,            /* track no statements */
    PGSS_TRACK_TOP,             /* only top level statements */
    PGSS_TRACK_ALL              /* all statements, including nested ones */
-} PGSSTrackLevel;
+}  PGSSTrackLevel;
 
 static const struct config_enum_entry track_options[] =
 {
index 49a7b3c2c006d3e2e405cd3dd6d64e3b7febfe8f..305b3d0723ddf23014d56b87c0e4aa2ab3afd6a0 100644 (file)
 
 static const char *progname;
 
-static int     ops_per_test = 2000;
-static char        full_buf[XLOG_SEG_SIZE], *buf, *filename = FSYNC_FILENAME;
-static struct timeval start_t, stop_t;
-
-
-static void    handle_args(int argc, char *argv[]);
-static void    prepare_buf(void);
-static void    test_open(void);
-static void    test_non_sync(void);
-static void    test_sync(int writes_per_op);
-static void    test_open_syncs(void);
-static void    test_open_sync(const char *msg, int writes_size);
-static void    test_file_descriptor_sync(void);
+static int ops_per_test = 2000;
+static char full_buf[XLOG_SEG_SIZE],
+          *buf,
+          *filename = FSYNC_FILENAME;
+static struct timeval start_t,
+           stop_t;
+
+
+static void handle_args(int argc, char *argv[]);
+static void prepare_buf(void);
+static void test_open(void);
+static void test_non_sync(void);
+static void test_sync(int writes_per_op);
+static void test_open_syncs(void);
+static void test_open_sync(const char *msg, int writes_size);
+static void test_file_descriptor_sync(void);
+
 #ifdef HAVE_FSYNC_WRITETHROUGH
 static int pg_fsync_writethrough(int fd);
 #endif
-static void    print_elapse(struct timeval start_t, struct timeval stop_t);
-static void    die(const char *str);
+static void print_elapse(struct timeval start_t, struct timeval stop_t);
+static void die(const char *str);
 
 
 int
@@ -103,7 +107,7 @@ handle_args(int argc, char *argv[])
    }
 
    while ((option = getopt_long(argc, argv, "f:o:",
-           long_options, &optindex)) != -1)
+                                long_options, &optindex)) != -1)
    {
        switch (option)
        {
@@ -176,7 +180,9 @@ test_open(void)
 static void
 test_sync(int writes_per_op)
 {
-   int         tmpfile, ops, writes;
+   int         tmpfile,
+               ops,
+               writes;
    bool        fs_warning = false;
 
    if (writes_per_op == 1)
@@ -353,7 +359,9 @@ test_open_syncs(void)
 static void
 test_open_sync(const char *msg, int writes_size)
 {
-   int     tmpfile, ops, writes;
+   int         tmpfile,
+               ops,
+               writes;
 
    printf(LABEL_FORMAT, msg);
    fflush(stdout);
@@ -377,7 +385,6 @@ test_open_sync(const char *msg, int writes_size)
        close(tmpfile);
        print_elapse(start_t, stop_t);
    }
-
 #else
    printf(NA_FORMAT, "n/a\n");
 #endif
@@ -386,22 +393,22 @@ test_open_sync(const char *msg, int writes_size)
 static void
 test_file_descriptor_sync(void)
 {
-   int         tmpfile, ops;
+   int         tmpfile,
+               ops;
 
    /*
-    * Test whether fsync can sync data written on a different
-    * descriptor for the same file.  This checks the efficiency
-    * of multi-process fsyncs against the same file.
-    * Possibly this should be done with writethrough on platforms
-    * which support it.
+    * Test whether fsync can sync data written on a different descriptor for
+    * the same file.  This checks the efficiency of multi-process fsyncs
+    * against the same file. Possibly this should be done with writethrough
+    * on platforms which support it.
     */
    printf("\nTest if fsync on non-write file descriptor is honored:\n");
    printf("(If the times are similar, fsync() can sync data written\n");
    printf("on a different descriptor.)\n");
 
    /*
-    * first write, fsync and close, which is the
-    * normal behavior without multiple descriptors
+    * first write, fsync and close, which is the normal behavior without
+    * multiple descriptors
     */
    printf(LABEL_FORMAT, "write, fsync, close");
    fflush(stdout);
@@ -416,9 +423,10 @@ test_file_descriptor_sync(void)
        if (fsync(tmpfile) != 0)
            die("fsync failed");
        close(tmpfile);
+
        /*
-        * open and close the file again to be consistent
-        * with the following test
+        * open and close the file again to be consistent with the following
+        * test
         */
        if ((tmpfile = open(filename, O_RDWR, 0)) == -1)
            die("could not open output file");
@@ -428,9 +436,8 @@ test_file_descriptor_sync(void)
    print_elapse(start_t, stop_t);
 
    /*
-    * Now open, write, close, open again and fsync
-    * This simulates processes fsyncing each other's
-    * writes.
+    * Now open, write, close, open again and fsync This simulates processes
+    * fsyncing each other's writes.
     */
    printf(LABEL_FORMAT, "write, close, fsync");
    fflush(stdout);
@@ -458,7 +465,8 @@ test_file_descriptor_sync(void)
 static void
 test_non_sync(void)
 {
-   int         tmpfile, ops;
+   int         tmpfile,
+               ops;
 
    /*
     * Test a simple write without fsync
@@ -494,7 +502,6 @@ pg_fsync_writethrough(int fd)
    return -1;
 #endif
 }
-
 #endif
 
 /*
index f3644fcce76271f1713791184ad9a072145fb1d2..61de5d89d161bf7e4d9a5965d0211b1447c0c2c3 100644 (file)
@@ -51,8 +51,9 @@ uint32        trgm2int(trgm *ptr);
 #endif
 #define ISPRINTABLETRGM(t) ( ISPRINTABLECHAR( ((char*)(t)) ) && ISPRINTABLECHAR( ((char*)(t))+1 ) && ISPRINTABLECHAR( ((char*)(t))+2 ) )
 
-#define ISESCAPECHAR(x) (*(x) == '\\') /* Wildcard escape character */
-#define ISWILDCARDCHAR(x) (*(x) == '_' || *(x) == '%')  /* Wildcard meta-character */
+#define ISESCAPECHAR(x) (*(x) == '\\') /* Wildcard escape character */
+#define ISWILDCARDCHAR(x) (*(x) == '_' || *(x) == '%') /* Wildcard
+                                                        * meta-character */
 
 typedef struct
 {
@@ -105,4 +106,4 @@ TRGM       *generate_wildcard_trgm(const char *str, int slen);
 float4     cnt_sml(TRGM *trg1, TRGM *trg2);
 bool       trgm_contained_by(TRGM *trg1, TRGM *trg2);
 
-#endif /* __TRGM_H__ */
+#endif   /* __TRGM_H__ */
index aaca1f97377f23f939b62d270910de033505365f..43ac0b0c6575a78124da79cf4c353a40cc2a0aec 100644 (file)
@@ -67,7 +67,7 @@ gin_extract_value_trgm(PG_FUNCTION_ARGS)
        ptr = GETARR(trg);
        for (i = 0; i < trglen; i++)
        {
-           int32   item = trgm2int(ptr);
+           int32       item = trgm2int(ptr);
 
            entries[i] = Int32GetDatum(item);
            ptr++;
@@ -83,10 +83,11 @@ gin_extract_query_trgm(PG_FUNCTION_ARGS)
    text       *val = (text *) PG_GETARG_TEXT_P(0);
    int32      *nentries = (int32 *) PG_GETARG_POINTER(1);
    StrategyNumber strategy = PG_GETARG_UINT16(2);
-   /* bool   **pmatch = (bool **) PG_GETARG_POINTER(3); */
-   /* Pointer    *extra_data = (Pointer *) PG_GETARG_POINTER(4); */
-   /* bool   **nullFlags = (bool **) PG_GETARG_POINTER(5); */
-   int32      *searchMode = (int32 *) PG_GETARG_POINTER(6);
+
+   /* bool   **pmatch = (bool **) PG_GETARG_POINTER(3); */
+   /* Pointer    *extra_data = (Pointer *) PG_GETARG_POINTER(4); */
+   /* bool   **nullFlags = (bool **) PG_GETARG_POINTER(5); */
+   int32      *searchMode = (int32 *) PG_GETARG_POINTER(6);
    Datum      *entries = NULL;
    TRGM       *trg;
    int32       trglen;
@@ -104,6 +105,7 @@ gin_extract_query_trgm(PG_FUNCTION_ARGS)
 #endif
            /* FALL THRU */
        case LikeStrategyNumber:
+
            /*
             * For wildcard search we extract all the trigrams that every
             * potentially-matching string must include.
@@ -112,7 +114,7 @@ gin_extract_query_trgm(PG_FUNCTION_ARGS)
            break;
        default:
            elog(ERROR, "unrecognized strategy number: %d", strategy);
-           trg = NULL;     /* keep compiler quiet */
+           trg = NULL;         /* keep compiler quiet */
            break;
    }
 
@@ -125,7 +127,7 @@ gin_extract_query_trgm(PG_FUNCTION_ARGS)
        ptr = GETARR(trg);
        for (i = 0; i < trglen; i++)
        {
-           int32   item = trgm2int(ptr);
+           int32       item = trgm2int(ptr);
 
            entries[i] = Int32GetDatum(item);
            ptr++;
@@ -146,9 +148,11 @@ gin_trgm_consistent(PG_FUNCTION_ARGS)
 {
    bool       *check = (bool *) PG_GETARG_POINTER(0);
    StrategyNumber strategy = PG_GETARG_UINT16(1);
+
    /* text    *query = PG_GETARG_TEXT_P(2); */
    int32       nkeys = PG_GETARG_INT32(3);
-   /* Pointer    *extra_data = (Pointer *) PG_GETARG_POINTER(4); */
+
+   /* Pointer    *extra_data = (Pointer *) PG_GETARG_POINTER(4); */
    bool       *recheck = (bool *) PG_GETARG_POINTER(5);
    bool        res;
    int32       i,
index d83265c11c38fcb1c37e17babe4d37f5dfd8da8e..b328a09f41fee50beb96a28835e15ef835222cd6 100644 (file)
@@ -190,17 +190,18 @@ gtrgm_consistent(PG_FUNCTION_ARGS)
    GISTENTRY  *entry = (GISTENTRY *) PG_GETARG_POINTER(0);
    text       *query = PG_GETARG_TEXT_P(1);
    StrategyNumber strategy = (StrategyNumber) PG_GETARG_UINT16(2);
+
    /* Oid      subtype = PG_GETARG_OID(3); */
    bool       *recheck = (bool *) PG_GETARG_POINTER(4);
    TRGM       *key = (TRGM *) DatumGetPointer(entry->key);
    TRGM       *qtrg;
    bool        res;
    char       *cache = (char *) fcinfo->flinfo->fn_extra,
-              *cacheContents = cache + MAXALIGN(sizeof(StrategyNumber));
+              *cacheContents = cache + MAXALIGN(sizeof(StrategyNumber));
 
    /*
     * Store both the strategy number and extracted trigrams in cache, because
-    * trigram extraction is relatively CPU-expensive.  We must include
+    * trigram extraction is relatively CPU-expensive.  We must include
     * strategy number because trigram extraction depends on strategy.
     */
    if (cache == NULL || strategy != *((StrategyNumber *) cache) ||
@@ -222,7 +223,7 @@ gtrgm_consistent(PG_FUNCTION_ARGS)
                break;
            default:
                elog(ERROR, "unrecognized strategy number: %d", strategy);
-               qtrg = NULL;        /* keep compiler quiet */
+               qtrg = NULL;    /* keep compiler quiet */
                break;
        }
 
@@ -251,20 +252,20 @@ gtrgm_consistent(PG_FUNCTION_ARGS)
            *recheck = false;
 
            if (GIST_LEAF(entry))
-           {                           /* all leafs contains orig trgm */
-               float4      tmpsml = cnt_sml(key, qtrg);
+           {                   /* all leafs contains orig trgm */
+               float4      tmpsml = cnt_sml(key, qtrg);
 
                /* strange bug at freebsd 5.2.1 and gcc 3.3.3 */
                res = (*(int *) &tmpsml == *(int *) &trgm_limit || tmpsml > trgm_limit) ? true : false;
            }
            else if (ISALLTRUE(key))
-           {                           /* non-leaf contains signature */
+           {                   /* non-leaf contains signature */
                res = true;
            }
            else
-           {                           /* non-leaf contains signature */
-               int4 count = cnt_sml_sign_common(qtrg, GETSIGN(key));
-               int4 len = ARRNELEM(qtrg);
+           {                   /* non-leaf contains signature */
+               int4        count = cnt_sml_sign_common(qtrg, GETSIGN(key));
+               int4        len = ARRNELEM(qtrg);
 
                if (len == 0)
                    res = false;
@@ -286,20 +287,20 @@ gtrgm_consistent(PG_FUNCTION_ARGS)
             * nodes.
             */
            if (GIST_LEAF(entry))
-           {                           /* all leafs contains orig trgm */
+           {                   /* all leafs contains orig trgm */
                res = trgm_contained_by(qtrg, key);
            }
            else if (ISALLTRUE(key))
-           {                           /* non-leaf contains signature */
+           {                   /* non-leaf contains signature */
                res = true;
            }
            else
-           {                           /* non-leaf contains signature */
-               int32   k,
-                       tmp = 0,
-                       len = ARRNELEM(qtrg);
-               trgm *ptr = GETARR(qtrg);
-               BITVECP sign = GETSIGN(key);
+           {                   /* non-leaf contains signature */
+               int32       k,
+                           tmp = 0,
+                           len = ARRNELEM(qtrg);
+               trgm       *ptr = GETARR(qtrg);
+               BITVECP     sign = GETSIGN(key);
 
                res = true;
                for (k = 0; k < len; k++)
@@ -328,6 +329,7 @@ gtrgm_distance(PG_FUNCTION_ARGS)
    GISTENTRY  *entry = (GISTENTRY *) PG_GETARG_POINTER(0);
    text       *query = PG_GETARG_TEXT_P(1);
    StrategyNumber strategy = (StrategyNumber) PG_GETARG_UINT16(2);
+
    /* Oid      subtype = PG_GETARG_OID(3); */
    TRGM       *key = (TRGM *) DatumGetPointer(entry->key);
    TRGM       *qtrg;
@@ -355,17 +357,17 @@ gtrgm_distance(PG_FUNCTION_ARGS)
    {
        case DistanceStrategyNumber:
            if (GIST_LEAF(entry))
-           {                           /* all leafs contains orig trgm */
+           {                   /* all leafs contains orig trgm */
                res = 1.0 - cnt_sml(key, qtrg);
            }
            else if (ISALLTRUE(key))
-           {                           /* all leafs contains orig trgm */
+           {                   /* all leafs contains orig trgm */
                res = 0.0;
            }
            else
-           {                           /* non-leaf contains signature */
-               int4 count = cnt_sml_sign_common(qtrg, GETSIGN(key));
-               int4 len = ARRNELEM(qtrg);
+           {                   /* non-leaf contains signature */
+               int4        count = cnt_sml_sign_common(qtrg, GETSIGN(key));
+               int4        len = ARRNELEM(qtrg);
 
                res = (len == 0) ? -1.0 : 1.0 - ((float8) count) / ((float8) len);
            }
index 52f9172f6d52d3e307341b1a5446082315ce8e27..dfb2df50488223a576120c1d11bebc5a8d2c2ac1 100644 (file)
@@ -273,9 +273,9 @@ get_wildcard_part(const char *str, int lenstr,
    const char *beginword = str;
    const char *endword;
    char       *s = buf;
-   bool        in_wildcard_meta = false;
-   bool        in_escape = false;
-   int         clen;
+   bool        in_wildcard_meta = false;
+   bool        in_escape = false;
+   int         clen;
 
    /*
     * Find the first word character remembering whether last character was
@@ -410,14 +410,14 @@ generate_wildcard_trgm(const char *str, int slen)
 {
    TRGM       *trg;
    char       *buf,
-              *buf2;
+              *buf2;
    trgm       *tptr;
    int         len,
                charlen,
                bytelen;
    const char *eword;
 
-   trg = (TRGM *) palloc(TRGMHDRSIZE + sizeof(trgm) * (slen / 2 + 1) * 3);
+   trg = (TRGM *) palloc(TRGMHDRSIZE + sizeof(trgm) * (slen / 2 + 1) *3);
    trg->flag = ARRKEY;
    SET_VARSIZE(trg, TRGMHDRSIZE);
 
@@ -638,6 +638,7 @@ similarity_dist(PG_FUNCTION_ARGS)
    float4      res = DatumGetFloat4(DirectFunctionCall2(similarity,
                                                         PG_GETARG_DATUM(0),
                                                         PG_GETARG_DATUM(1)));
+
    PG_RETURN_FLOAT4(1.0 - res);
 }
 
index 05aac8fde9cd5a05c8e351f25b9ab79e0e31eb42..747244072d434f8a5317dc5f37587d7684bb9963 100644 (file)
@@ -212,7 +212,10 @@ check_cluster_versions(void)
    old_cluster.major_version = get_major_server_version(&old_cluster);
    new_cluster.major_version = get_major_server_version(&new_cluster);
 
-   /* We allow upgrades from/to the same major version for alpha/beta upgrades */
+   /*
+    * We allow upgrades from/to the same major version for alpha/beta
+    * upgrades
+    */
 
    if (GET_MAJOR_VERSION(old_cluster.major_version) < 803)
        pg_log(PG_FATAL, "This utility can only upgrade from PostgreSQL version 8.3 and later.\n");
@@ -516,7 +519,7 @@ check_for_isn_and_int8_passing_mismatch(ClusterInfo *cluster)
    }
 
    if (script)
-           fclose(script);
+       fclose(script);
 
    if (found)
    {
index 78c75e8a8438bae5e632c4e40802e0712ab7bd57..3ac2180d49bf76296c4521eb4d87f206314818c9 100644 (file)
@@ -505,8 +505,7 @@ check_control_data(ControlData *oldctrl,
               "\nOld and new pg_controldata date/time storage types do not match.\n");
 
        /*
-        * This is a common 8.3 -> 8.4 upgrade problem, so we are more
-        * verbose
+        * This is a common 8.3 -> 8.4 upgrade problem, so we are more verbose
         */
        pg_log(PG_FATAL,
               "You will need to rebuild the new server with configure\n"
index 7095ba62a8013a4d2f21ef4edfb615b784d53642..59a76bc8aec075b72b0848c361ef4e2c2fe7fe50 100644 (file)
@@ -15,7 +15,7 @@
 
 static void check_data_dir(const char *pg_data);
 static void check_bin_dir(ClusterInfo *cluster);
-static void    validate_exec(const char *dir, const char *cmdName);
+static void validate_exec(const char *dir, const char *cmdName);
 
 
 /*
index 0024b6ee00597bbba47a0b7f754c542aa54f7a76..f8f7233593d5ae4dfaf30c955b6c7fc660ac602f 100644 (file)
@@ -377,4 +377,5 @@ win32_pghardlink(const char *src, const char *dst)
    else
        return 0;
 }
+
 #endif
index c01ff046bbd6a780f0f88ffec68285774745d69d..322014cd235cb404f586f72d63a845ba7c1405d7 100644 (file)
 void
 install_support_functions_in_new_db(const char *db_name)
 {
-   PGconn *conn = connectToServer(&new_cluster, db_name);
-   
+   PGconn     *conn = connectToServer(&new_cluster, db_name);
+
    /* suppress NOTICE of dropped objects */
    PQclear(executeQueryOrDie(conn,
                              "SET client_min_messages = warning;"));
    PQclear(executeQueryOrDie(conn,
-                      "DROP SCHEMA IF EXISTS binary_upgrade CASCADE;"));
+                          "DROP SCHEMA IF EXISTS binary_upgrade CASCADE;"));
    PQclear(executeQueryOrDie(conn,
                              "RESET client_min_messages;"));
 
@@ -42,31 +42,31 @@ install_support_functions_in_new_db(const char *db_name)
                              "LANGUAGE C STRICT;"));
    PQclear(executeQueryOrDie(conn,
                              "CREATE OR REPLACE FUNCTION "
-                             "binary_upgrade.set_next_array_pg_type_oid(OID) "
+                           "binary_upgrade.set_next_array_pg_type_oid(OID) "
                              "RETURNS VOID "
                              "AS '$libdir/pg_upgrade_support' "
                              "LANGUAGE C STRICT;"));
    PQclear(executeQueryOrDie(conn,
                              "CREATE OR REPLACE FUNCTION "
-                             "binary_upgrade.set_next_toast_pg_type_oid(OID) "
+                           "binary_upgrade.set_next_toast_pg_type_oid(OID) "
                              "RETURNS VOID "
                              "AS '$libdir/pg_upgrade_support' "
                              "LANGUAGE C STRICT;"));
    PQclear(executeQueryOrDie(conn,
                              "CREATE OR REPLACE FUNCTION "
-                             "binary_upgrade.set_next_heap_pg_class_oid(OID) "
+                           "binary_upgrade.set_next_heap_pg_class_oid(OID) "
                              "RETURNS VOID "
                              "AS '$libdir/pg_upgrade_support' "
                              "LANGUAGE C STRICT;"));
    PQclear(executeQueryOrDie(conn,
                              "CREATE OR REPLACE FUNCTION "
-                             "binary_upgrade.set_next_index_pg_class_oid(OID) "
+                          "binary_upgrade.set_next_index_pg_class_oid(OID) "
                              "RETURNS VOID "
                              "AS '$libdir/pg_upgrade_support' "
                              "LANGUAGE C STRICT;"));
    PQclear(executeQueryOrDie(conn,
                              "CREATE OR REPLACE FUNCTION "
-                             "binary_upgrade.set_next_toast_pg_class_oid(OID) "
+                          "binary_upgrade.set_next_toast_pg_class_oid(OID) "
                              "RETURNS VOID "
                              "AS '$libdir/pg_upgrade_support' "
                              "LANGUAGE C STRICT;"));
index ceb1601cc6d8922bdd0fc33177500e480506bd9d..f0cd8e5ede29a02db5c4f45ce414897f91772e7f 100644 (file)
@@ -13,9 +13,9 @@
 
 
 static void create_rel_filename_map(const char *old_data, const char *new_data,
-             const DbInfo *old_db, const DbInfo *new_db,
-             const RelInfo *old_rel, const RelInfo *new_rel,
-             FileNameMap *map);
+                       const DbInfo *old_db, const DbInfo *new_db,
+                       const RelInfo *old_rel, const RelInfo *new_rel,
+                       FileNameMap *map);
 static void get_db_infos(ClusterInfo *cluster);
 static void get_rel_infos(ClusterInfo *cluster, DbInfo *dbinfo);
 static void free_rel_infos(RelInfoArr *rel_arr);
@@ -40,7 +40,7 @@ gen_db_file_maps(DbInfo *old_db, DbInfo *new_db,
 
    if (old_db->rel_arr.nrels != new_db->rel_arr.nrels)
        pg_log(PG_FATAL, "old and new databases \"%s\" have a different number of relations\n",
-                   old_db->db_name);
+              old_db->db_name);
 
    maps = (FileNameMap *) pg_malloc(sizeof(FileNameMap) *
                                     old_db->rel_arr.nrels);
@@ -52,24 +52,24 @@ gen_db_file_maps(DbInfo *old_db, DbInfo *new_db,
 
        if (old_rel->reloid != new_rel->reloid)
            pg_log(PG_FATAL, "Mismatch of relation id: database \"%s\", old relid %d, new relid %d\n",
-           old_db->db_name, old_rel->reloid, new_rel->reloid);
+                  old_db->db_name, old_rel->reloid, new_rel->reloid);
 
        /*
-        *  In pre-8.4, TOAST table names change during CLUSTER;  in >= 8.4
-        *  TOAST relation names always use heap table oids, hence we
-        *  cannot check relation names when upgrading from pre-8.4.
+        * In pre-8.4, TOAST table names change during CLUSTER;  in >= 8.4
+        * TOAST relation names always use heap table oids, hence we cannot
+        * check relation names when upgrading from pre-8.4.
         */
        if (strcmp(old_rel->nspname, new_rel->nspname) != 0 ||
            ((GET_MAJOR_VERSION(old_cluster.major_version) >= 804 ||
              strcmp(old_rel->nspname, "pg_toast") != 0) &&
             strcmp(old_rel->relname, new_rel->relname) != 0))
            pg_log(PG_FATAL, "Mismatch of relation names: database \"%s\", "
-               "old rel %s.%s, new rel %s.%s\n",
-               old_db->db_name, old_rel->nspname, old_rel->relname,
-               new_rel->nspname, new_rel->relname);
+                  "old rel %s.%s, new rel %s.%s\n",
+                  old_db->db_name, old_rel->nspname, old_rel->relname,
+                  new_rel->nspname, new_rel->relname);
 
        create_rel_filename_map(old_pgdata, new_pgdata, old_db, new_db,
-               old_rel, new_rel, maps + num_maps);
+                               old_rel, new_rel, maps + num_maps);
        num_maps++;
    }
 
@@ -85,9 +85,9 @@ gen_db_file_maps(DbInfo *old_db, DbInfo *new_db,
  */
 static void
 create_rel_filename_map(const char *old_data, const char *new_data,
-             const DbInfo *old_db, const DbInfo *new_db,
-             const RelInfo *old_rel, const RelInfo *new_rel,
-             FileNameMap *map)
+                       const DbInfo *old_db, const DbInfo *new_db,
+                       const RelInfo *old_rel, const RelInfo *new_rel,
+                       FileNameMap *map)
 {
    if (strlen(old_rel->tablespace) == 0)
    {
@@ -110,8 +110,8 @@ create_rel_filename_map(const char *old_data, const char *new_data,
    }
 
    /*
-    *  old_relfilenode might differ from pg_class.oid (and hence
-    *  new_relfilenode) because of CLUSTER, REINDEX, or VACUUM FULL.
+    * old_relfilenode might differ from pg_class.oid (and hence
+    * new_relfilenode) because of CLUSTER, REINDEX, or VACUUM FULL.
     */
    map->old_relfilenode = old_rel->relfilenode;
 
@@ -185,7 +185,9 @@ get_db_infos(ClusterInfo *cluster)
    int         ntups;
    int         tupnum;
    DbInfo     *dbinfos;
-   int         i_datname, i_oid, i_spclocation;
+   int         i_datname,
+               i_oid,
+               i_spclocation;
 
    res = executeQueryOrDie(conn,
                            "SELECT d.oid, d.datname, t.spclocation "
@@ -241,15 +243,19 @@ get_rel_infos(ClusterInfo *cluster, DbInfo *dbinfo)
    int         num_rels = 0;
    char       *nspname = NULL;
    char       *relname = NULL;
-   int         i_spclocation, i_nspname, i_relname, i_oid, i_relfilenode;
+   int         i_spclocation,
+               i_nspname,
+               i_relname,
+               i_oid,
+               i_relfilenode;
    char        query[QUERY_ALLOC];
 
    /*
     * pg_largeobject contains user data that does not appear in pg_dumpall
     * --schema-only output, so we have to copy that system table heap and
-    * index.  We could grab the pg_largeobject oids from template1, but
-    * it is easy to treat it as a normal table.
-    * Order by oid so we can join old/new structures efficiently.
+    * index.  We could grab the pg_largeobject oids from template1, but it is
+    * easy to treat it as a normal table. Order by oid so we can join old/new
+    * structures efficiently.
     */
 
    snprintf(query, sizeof(query),
@@ -263,7 +269,7 @@ get_rel_infos(ClusterInfo *cluster, DbInfo *dbinfo)
             "  ((n.nspname NOT IN ('pg_catalog', 'information_schema', 'binary_upgrade') AND "
             "    c.oid >= %u) "
             "  OR (n.nspname = 'pg_catalog' AND "
-            "    relname IN ('pg_largeobject', 'pg_largeobject_loid_pn_index'%s) )) "
+   "    relname IN ('pg_largeobject', 'pg_largeobject_loid_pn_index'%s) )) "
    /* we preserve pg_class.oid so we sort by it to match old/new */
             "ORDER BY 1;",
    /* see the comment at the top of old_8_3_create_sequence_script() */
@@ -273,7 +279,7 @@ get_rel_infos(ClusterInfo *cluster, DbInfo *dbinfo)
             FirstNormalObjectId,
    /* does pg_largeobject_metadata need to be migrated? */
             (GET_MAJOR_VERSION(old_cluster.major_version) <= 804) ?
-            "" : ", 'pg_largeobject_metadata', 'pg_largeobject_metadata_oid_index'");
+   "" : ", 'pg_largeobject_metadata', 'pg_largeobject_metadata_oid_index'");
 
    res = executeQueryOrDie(conn, query);
 
index 061544cac889fcb1bd77878a9b810f811c146838..e435aaef08c88a581344bedb6aae67093e3f1450 100644 (file)
@@ -18,7 +18,7 @@
  * FYI, while pg_class.oid and pg_class.relfilenode are intially the same
  * in a cluster, but they can diverge due to CLUSTER, REINDEX, or VACUUM
  * FULL.  The new cluster will have matching pg_class.oid and
- * pg_class.relfilenode values and be based on the old oid value.  This can
+ * pg_class.relfilenode values and be based on the old oid value.  This can
  * cause the old and new pg_class.relfilenode values to differ.  In summary,
  * old and new pg_class.oid and new pg_class.relfilenode will have the
  * same value, and old pg_class.relfilenode might differ.
@@ -34,7 +34,7 @@
  */
 
 
+
 #include "pg_upgrade.h"
 
 #ifdef HAVE_LANGINFO_H
@@ -53,7 +53,8 @@ static void cleanup(void);
 /* This is the database used by pg_dumpall to restore global tables */
 #define GLOBAL_DUMP_DB "postgres"
 
-ClusterInfo old_cluster, new_cluster;
+ClusterInfo old_cluster,
+           new_cluster;
 OSInfo     os_info;
 
 int
@@ -192,7 +193,7 @@ prepare_new_cluster(void)
    exec_prog(true,
              SYSTEMQUOTE "\"%s/vacuumdb\" --port %d --username \"%s\" "
              "--all --analyze >> %s 2>&1" SYSTEMQUOTE,
-          new_cluster.bindir, new_cluster.port, os_info.user, log_opts.filename);
+     new_cluster.bindir, new_cluster.port, os_info.user, log_opts.filename);
    check_ok();
 
    /*
@@ -205,7 +206,7 @@ prepare_new_cluster(void)
    exec_prog(true,
              SYSTEMQUOTE "\"%s/vacuumdb\" --port %d --username \"%s\" "
              "--all --freeze >> %s 2>&1" SYSTEMQUOTE,
-          new_cluster.bindir, new_cluster.port, os_info.user, log_opts.filename);
+     new_cluster.bindir, new_cluster.port, os_info.user, log_opts.filename);
    check_ok();
 
    get_pg_database_relfilenode(&new_cluster);
@@ -229,16 +230,16 @@ prepare_new_databases(void)
    prep_status("Creating databases in the new cluster");
 
    /*
-    *  Install support functions in the global-restore database
-    *  to preserve pg_authid.oid.
+    * Install support functions in the global-restore database to preserve
+    * pg_authid.oid.
     */
    install_support_functions_in_new_db(GLOBAL_DUMP_DB);
 
    /*
     * We have to create the databases first so we can install support
-    * functions in all the other databases.  Ideally we could create
-    * the support functions in template1 but pg_dumpall creates database
-    * using the template0 template.
+    * functions in all the other databases.  Ideally we could create the
+    * support functions in template1 but pg_dumpall creates database using
+    * the template0 template.
     */
    exec_prog(true,
              SYSTEMQUOTE "\"%s/psql\" --set ON_ERROR_STOP=on "
index 8f72ea80d7ad9eb448a602de1f33b70a362b23f4..5ca570eb157c7e7287464025d7d526a59c568b89 100644 (file)
@@ -85,6 +85,7 @@ typedef struct
 {
    char        old_dir[MAXPGPATH];
    char        new_dir[MAXPGPATH];
+
    /*
     * old/new relfilenodes might differ for pg_largeobject(_metadata) indexes
     * due to VACUUM FULL or REINDEX.  Other relfilenodes are preserved.
@@ -92,7 +93,7 @@ typedef struct
    Oid         old_relfilenode;
    Oid         new_relfilenode;
    /* the rest are used only for logging and error reporting */
-   char        nspname[NAMEDATALEN];       /* namespaces */
+   char        nspname[NAMEDATALEN];   /* namespaces */
    char        relname[NAMEDATALEN];
 } FileNameMap;
 
@@ -180,7 +181,7 @@ typedef struct
    char       *bindir;         /* pathname for cluster's executable directory */
    unsigned short port;        /* port number where postmaster is waiting */
    uint32      major_version;  /* PG_VERSION of cluster */
-   char       major_version_str[64];       /* string PG_VERSION of cluster */
+   char        major_version_str[64];  /* string PG_VERSION of cluster */
    Oid         pg_database_oid;    /* OID of pg_database relation */
    char       *libpath;        /* pathname for cluster's pkglibdir */
    char       *tablespace_suffix;      /* directory specification */
@@ -232,9 +233,10 @@ typedef struct
 /*
  * Global variables
  */
-extern LogOpts log_opts;
+extern LogOpts log_opts;
 extern UserOpts user_opts;
-extern ClusterInfo old_cluster, new_cluster;
+extern ClusterInfo old_cluster,
+           new_cluster;
 extern OSInfo os_info;
 extern char scandir_file_pattern[];
 
@@ -246,8 +248,8 @@ void check_old_cluster(bool live_check,
                  char **sequence_script_file_name);
 void       check_new_cluster(void);
 void       report_clusters_compatible(void);
-void issue_warnings(char *sequence_script_file_name);
-void output_completion_banner(char *deletion_script_file_name);
+void       issue_warnings(char *sequence_script_file_name);
+void       output_completion_banner(char *deletion_script_file_name);
 void       check_cluster_versions(void);
 void       check_cluster_compatibility(bool live_check);
 void       create_script_for_old_cluster_deletion(char **deletion_script_file_name);
@@ -309,11 +311,11 @@ typedef void *pageCnvCtx;
 
 int            dir_matching_filenames(const struct dirent * scan_ent);
 int pg_scandir(const char *dirname, struct dirent *** namelist,
-              int (*selector) (const struct dirent *));
+          int (*selector) (const struct dirent *));
 const char *copyAndUpdateFile(pageCnvCtx *pageConverter, const char *src,
                  const char *dst, bool force);
 const char *linkAndUpdateFile(pageCnvCtx *pageConverter, const char *src,
-                             const char *dst);
+                 const char *dst);
 
 void       check_hard_link(void);
 
@@ -329,10 +331,10 @@ void      check_loadable_libraries(void);
 FileNameMap *gen_db_file_maps(DbInfo *old_db,
                 DbInfo *new_db, int *nmaps, const char *old_pgdata,
                 const char *new_pgdata);
-void       get_db_and_rel_infos(ClusterInfo *cluster);
+void       get_db_and_rel_infos(ClusterInfo *cluster);
 void       free_db_and_rel_infos(DbInfoArr *db_arr);
-void       print_maps(FileNameMap *maps, int n,
-               const char *db_name);
+void print_maps(FileNameMap *maps, int n,
+          const char *db_name);
 
 /* option.c */
 
@@ -352,12 +354,12 @@ void      init_tablespaces(void);
 
 /* server.c */
 
-PGconn *connectToServer(ClusterInfo *cluster, const char *db_name);
-PGresult *executeQueryOrDie(PGconn *conn, const char *fmt,...);
+PGconn    *connectToServer(ClusterInfo *cluster, const char *db_name);
+PGresult   *executeQueryOrDie(PGconn *conn, const char *fmt,...);
 
 void       start_postmaster(ClusterInfo *cluster, bool quiet);
 void       stop_postmaster(bool fast, bool quiet);
-uint32 get_major_server_version(ClusterInfo *cluster);
+uint32     get_major_server_version(ClusterInfo *cluster);
 void       check_for_libpq_envvars(void);
 
 
@@ -380,14 +382,14 @@ unsigned int str2uint(const char *str);
 /* version.c */
 
 void new_9_0_populate_pg_largeobject_metadata(ClusterInfo *cluster,
-                                             bool check_mode);
+                                        bool check_mode);
 
 /* version_old_8_3.c */
 
 void       old_8_3_check_for_name_data_type_usage(ClusterInfo *cluster);
 void       old_8_3_check_for_tsquery_usage(ClusterInfo *cluster);
-void old_8_3_rebuild_tsvector_tables(ClusterInfo *cluster, bool check_mode);
-void old_8_3_invalidate_hash_gin_indexes(ClusterInfo *cluster, bool check_mode);
+void       old_8_3_rebuild_tsvector_tables(ClusterInfo *cluster, bool check_mode);
+void       old_8_3_invalidate_hash_gin_indexes(ClusterInfo *cluster, bool check_mode);
 void old_8_3_invalidate_bpchar_pattern_ops_indexes(ClusterInfo *cluster,
-                                                  bool check_mode);
+                                             bool check_mode);
 char      *old_8_3_create_sequence_script(ClusterInfo *cluster);
index d111b13de905ffe8b5022874e5bf37cc87a74605..9a0a3ac18d9557cf696e452d4e61cab1b9c08485 100644 (file)
@@ -30,7 +30,7 @@ char      scandir_file_pattern[MAXPGPATH];
  */
 const char *
 transfer_all_new_dbs(DbInfoArr *old_db_arr,
-                    DbInfoArr *new_db_arr, char *old_pgdata, char *new_pgdata)
+                  DbInfoArr *new_db_arr, char *old_pgdata, char *new_pgdata)
 {
    int         dbnum;
    const char *msg = NULL;
@@ -39,7 +39,7 @@ transfer_all_new_dbs(DbInfoArr *old_db_arr,
 
    if (old_db_arr->ndbs != new_db_arr->ndbs)
        pg_log(PG_FATAL, "old and new clusters have a different number of databases\n");
-   
+
    for (dbnum = 0; dbnum < old_db_arr->ndbs; dbnum++)
    {
        DbInfo     *old_db = &old_db_arr->dbs[dbnum];
@@ -50,8 +50,8 @@ transfer_all_new_dbs(DbInfoArr *old_db_arr,
 
        if (strcmp(old_db->db_name, new_db->db_name) != 0)
            pg_log(PG_FATAL, "old and new databases have different names: old \"%s\", new \"%s\"\n",
-               old_db->db_name, new_db->db_name);
-       
+                  old_db->db_name, new_db->db_name);
+
        n_maps = 0;
        mappings = gen_db_file_maps(old_db, new_db, &n_maps, old_pgdata,
                                    new_pgdata);
@@ -169,7 +169,7 @@ transfer_single_new_db(pageCnvCtx *pageConverter,
            for (fileno = 0; fileno < numFiles; fileno++)
            {
                if (strncmp(namelist[fileno]->d_name, scandir_file_pattern,
-                   strlen(scandir_file_pattern)) == 0)
+                           strlen(scandir_file_pattern)) == 0)
                {
                    snprintf(old_file, sizeof(old_file), "%s/%s", maps[mapnum].old_dir,
                             namelist[fileno]->d_name);
@@ -178,7 +178,7 @@ transfer_single_new_db(pageCnvCtx *pageConverter,
 
                    unlink(new_file);
                    transfer_relfile(pageConverter, old_file, new_file,
-                             maps[mapnum].nspname, maps[mapnum].relname);
+                                maps[mapnum].nspname, maps[mapnum].relname);
                }
            }
        }
@@ -196,7 +196,7 @@ transfer_single_new_db(pageCnvCtx *pageConverter,
        for (fileno = 0; fileno < numFiles; fileno++)
        {
            if (strncmp(namelist[fileno]->d_name, scandir_file_pattern,
-               strlen(scandir_file_pattern)) == 0)
+                       strlen(scandir_file_pattern)) == 0)
            {
                snprintf(old_file, sizeof(old_file), "%s/%s", maps[mapnum].old_dir,
                         namelist[fileno]->d_name);
@@ -205,7 +205,7 @@ transfer_single_new_db(pageCnvCtx *pageConverter,
 
                unlink(new_file);
                transfer_relfile(pageConverter, old_file, new_file,
-                             maps[mapnum].nspname, maps[mapnum].relname);
+                                maps[mapnum].nspname, maps[mapnum].relname);
            }
        }
    }
@@ -227,7 +227,7 @@ transfer_single_new_db(pageCnvCtx *pageConverter,
  */
 static void
 transfer_relfile(pageCnvCtx *pageConverter, const char *old_file,
-        const char *new_file, const char *nspname, const char *relname)
+             const char *new_file, const char *nspname, const char *relname)
 {
    const char *msg;
 
@@ -249,7 +249,7 @@ transfer_relfile(pageCnvCtx *pageConverter, const char *old_file,
 
        if ((msg = linkAndUpdateFile(pageConverter, old_file, new_file)) != NULL)
            pg_log(PG_FATAL,
-              "error while creating link from %s.%s (%s to %s): %s\n",
+                  "error while creating link from %s.%s (%s to %s): %s\n",
                   nspname, relname, old_file, new_file, msg);
    }
    return;
index a7d57872346104fca8e8e324f0bc188fed04cfb0..2a0f50eb2a22b4907e8d462db169530e1f251ea0 100644 (file)
@@ -194,12 +194,12 @@ start_postmaster(ClusterInfo *cluster, bool quiet)
     * because it is being used by another process." so we have to send all
     * other output to 'nul'.
     *
-    * Using autovacuum=off disables cleanup vacuum and analyze, but
-    * freeze vacuums can still happen, so we set
-    * autovacuum_freeze_max_age to its maximum.  We assume all datfrozenxid
-    * and relfrozen values are less than a gap of 2000000000 from the current
-    * xid counter, so autovacuum will not touch them.
-    */ 
+    * Using autovacuum=off disables cleanup vacuum and analyze, but freeze
+    * vacuums can still happen, so we set autovacuum_freeze_max_age to its
+    * maximum.  We assume all datfrozenxid and relfrozen values are less than
+    * a gap of 2000000000 from the current xid counter, so autovacuum will
+    * not touch them.
+    */
    snprintf(cmd, sizeof(cmd),
             SYSTEMQUOTE "\"%s/pg_ctl\" -l \"%s\" -D \"%s\" "
             "-o \"-p %d -c autovacuum=off "
@@ -251,7 +251,7 @@ stop_postmaster(bool fast, bool quiet)
             "\"%s\" 2>&1" SYSTEMQUOTE,
             bindir,
 #ifndef WIN32
-            log_opts.filename, datadir, fast ? "-m fast" : "", log_opts.filename);
+      log_opts.filename, datadir, fast ? "-m fast" : "", log_opts.filename);
 #else
             DEVNULL, datadir, fast ? "-m fast" : "", DEVNULL);
 #endif
index a575487621906cdfd9b85959f83affd73904e485..6cdae51cf1904b419058d57373cc50fdda855d06 100644 (file)
@@ -78,8 +78,8 @@ set_tablespace_directory_suffix(ClusterInfo *cluster)
    {
        /* This cluster has a version-specific subdirectory */
        cluster->tablespace_suffix = pg_malloc(4 +
-                                 strlen(cluster->major_version_str) +
-                                                     10 /* OIDCHARS */ + 1);
+                                        strlen(cluster->major_version_str) +
+                                              10 /* OIDCHARS */ + 1);
 
        /* The leading slash is needed to start a new directory. */
        sprintf(cluster->tablespace_suffix, "/PG_%s_%d", cluster->major_version_str,
index 804aa0d1e5fa2900cdb59cffea565315294fe503..9a6691ce75f94f0cd353f4e331ac12ab2661febf 100644 (file)
@@ -12,7 +12,7 @@
 #include <signal.h>
 
 
-LogOpts            log_opts;
+LogOpts        log_opts;
 
 /*
  * report_status()
index 3ec4b59a05e17a24b19ecbbe786af7b12681529a..0a60eec926b54764c76dbc68be64cb7d2908c25c 100644 (file)
@@ -288,7 +288,7 @@ old_8_3_rebuild_tsvector_tables(ClusterInfo *cluster, bool check_mode)
 
                /* Rebuild all tsvector collumns with one ALTER TABLE command */
                if (strcmp(PQgetvalue(res, rowno, i_nspname), nspname) != 0 ||
-                strcmp(PQgetvalue(res, rowno, i_relname), relname) != 0)
+                   strcmp(PQgetvalue(res, rowno, i_relname), relname) != 0)
                {
                    if (strlen(nspname) != 0 || strlen(relname) != 0)
                        fprintf(script, ";\n\n");
index 02d1512719ec2a7f11e938145b144df39be03f0f..2c23cbab9df07b85583ff450632faaf44cd9f8df 100644 (file)
@@ -178,9 +178,9 @@ create_empty_extension(PG_FUNCTION_ARGS)
                          &textDatums, NULL, &ndatums);
        for (i = 0; i < ndatums; i++)
        {
-           text   *txtname = DatumGetTextPP(textDatums[i]);
-           char   *extName = text_to_cstring(txtname);
-           Oid     extOid = get_extension_oid(extName, false);
+           text       *txtname = DatumGetTextPP(textDatums[i]);
+           char       *extName = text_to_cstring(txtname);
+           Oid         extOid = get_extension_oid(extName, false);
 
            requiredExtensions = lappend_oid(requiredExtensions, extOid);
        }
@@ -188,7 +188,7 @@ create_empty_extension(PG_FUNCTION_ARGS)
 
    InsertExtensionTuple(text_to_cstring(extName),
                         GetUserId(),
-                        get_namespace_oid(text_to_cstring(schemaName), false),
+                      get_namespace_oid(text_to_cstring(schemaName), false),
                         relocatable,
                         text_to_cstring(extVersion),
                         extConfig,
index 7c2ca6e84d361f07908c86c5f33ee7fc9c9bccce..0a3e5fd9283ac92cfe761ea567b0bbdfea1eb56e 100644 (file)
@@ -69,7 +69,7 @@
 typedef struct win32_pthread *pthread_t;
 typedef int pthread_attr_t;
 
-static int pthread_create(pthread_t *thread, pthread_attr_t *attr, void *(*start_routine) (void *), void *arg);
+static int pthread_create(pthread_t *thread, pthread_attr_t * attr, void *(*start_routine) (void *), void *arg);
 static int pthread_join(pthread_t th, void **thread_return);
 #elif defined(ENABLE_THREAD_SAFETY)
 /* Use platform-dependent pthread capability */
@@ -87,7 +87,7 @@ static int    pthread_join(pthread_t th, void **thread_return);
 typedef struct fork_pthread *pthread_t;
 typedef int pthread_attr_t;
 
-static int pthread_create(pthread_t *thread, pthread_attr_t *attr, void *(*start_routine) (void *), void *arg);
+static int pthread_create(pthread_t *thread, pthread_attr_t * attr, void *(*start_routine) (void *), void *arg);
 static int pthread_join(pthread_t th, void **thread_return);
 #endif
 
@@ -817,7 +817,7 @@ top:
 
            INSTR_TIME_SET_CURRENT(now);
            INSTR_TIME_ACCUM_DIFF(thread->exec_elapsed[cnum],
-                                 now, st->stmt_begin);
+                                 now, st->stmt_begin);
            thread->exec_count[cnum]++;
        }
 
@@ -850,8 +850,8 @@ top:
        if (commands[st->state]->type == SQL_COMMAND)
        {
            /*
-            * Read and discard the query result; note this is not included
-            * in the statement latency numbers.
+            * Read and discard the query result; note this is not included in
+            * the statement latency numbers.
             */
            res = PQgetResult(st->con);
            switch (PQresultStatus(res))
@@ -1716,16 +1716,16 @@ printResults(int ttype, int normal_xacts, int nclients,
 
        for (i = 0; i < num_files; i++)
        {
-           Command   **commands;
+           Command   **commands;
 
            if (num_files > 1)
-               printf("statement latencies in milliseconds, file %d:\n", i+1);
+               printf("statement latencies in milliseconds, file %d:\n", i + 1);
            else
                printf("statement latencies in milliseconds:\n");
 
            for (commands = sql_files[i]; *commands != NULL; commands++)
            {
-               Command    *command = *commands;
+               Command    *command = *commands;
                int         cnum = command->command_num;
                double      total_time;
                instr_time  total_exec_elapsed;
@@ -1737,7 +1737,7 @@ printResults(int ttype, int normal_xacts, int nclients,
                total_exec_count = 0;
                for (t = 0; t < nthreads; t++)
                {
-                   TState *thread = &threads[t];
+                   TState     *thread = &threads[t];
 
                    INSTR_TIME_ADD(total_exec_elapsed,
                                   thread->exec_elapsed[cnum]);
@@ -2014,9 +2014,9 @@ main(int argc, char **argv)
     * is_latencies only works with multiple threads in thread-based
     * implementations, not fork-based ones, because it supposes that the
     * parent can see changes made to the per-thread execution stats by child
-    * threads.  It seems useful enough to accept despite this limitation,
-    * but perhaps we should FIXME someday (by passing the stats data back
-    * up through the parent-to-child pipes).
+    * threads.  It seems useful enough to accept despite this limitation, but
+    * perhaps we should FIXME someday (by passing the stats data back up
+    * through the parent-to-child pipes).
     */
 #ifndef ENABLE_THREAD_SAFETY
    if (is_latencies && nthreads > 1)
@@ -2161,7 +2161,7 @@ main(int argc, char **argv)
    threads = (TState *) xmalloc(sizeof(TState) * nthreads);
    for (i = 0; i < nthreads; i++)
    {
-       TState *thread = &threads[i];
+       TState     *thread = &threads[i];
 
        thread->tid = i;
        thread->state = &state[nclients / nthreads * i];
@@ -2170,7 +2170,7 @@ main(int argc, char **argv)
        if (is_latencies)
        {
            /* Reserve memory for the thread to store per-command latencies */
-           int     t;
+           int         t;
 
            thread->exec_elapsed = (instr_time *)
                xmalloc(sizeof(instr_time) * num_commands);
@@ -2200,7 +2200,7 @@ main(int argc, char **argv)
    /* start threads */
    for (i = 0; i < nthreads; i++)
    {
-       TState *thread = &threads[i];
+       TState     *thread = &threads[i];
 
        INSTR_TIME_SET_CURRENT(thread->start_time);
 
@@ -2472,7 +2472,7 @@ typedef struct fork_pthread
 
 static int
 pthread_create(pthread_t *thread,
-              pthread_attr_t *attr,
+              pthread_attr_t * attr,
               void *(*start_routine) (void *),
               void *arg)
 {
@@ -2586,7 +2586,7 @@ typedef struct win32_pthread
    void       *(*routine) (void *);
    void       *arg;
    void       *result;
-}  win32_pthread;
+} win32_pthread;
 
 static unsigned __stdcall
 win32_pthread_run(void *arg)
@@ -2600,7 +2600,7 @@ win32_pthread_run(void *arg)
 
 static int
 pthread_create(pthread_t *thread,
-              pthread_attr_t *attr,
+              pthread_attr_t * attr,
               void *(*start_routine) (void *),
               void *arg)
 {
index afada2a0aad0f04f75c74c8309ecfd3f9c97b41c..fd284e0c071350918dcaf2283d4967ae1d30d76a 100644 (file)
@@ -356,7 +356,7 @@ gseg_picksplit(GistEntryVector *entryvec,
    {
        seg = (SEG *) DatumGetPointer(entryvec->vector[i].key);
        /* center calculation is done this way to avoid possible overflow */
-       sort_items[i - 1].center = seg->lower*0.5f + seg->upper*0.5f;
+       sort_items[i - 1].center = seg->lower * 0.5f + seg->upper * 0.5f;
        sort_items[i - 1].index = i;
        sort_items[i - 1].data = seg;
    }
index 358a2643ca469891954644fd886974f666c4667c..22666b708e96912b2701cb895c21db1de07d1c86 100644 (file)
@@ -59,7 +59,7 @@ fixup_whole_row_references(Oid relOid, Bitmapset *columns)
    result = bms_copy(columns);
    result = bms_del_member(result, index);
 
-   for (attno=1; attno <= natts; attno++)
+   for (attno = 1; attno <= natts; attno++)
    {
        tuple = SearchSysCache2(ATTNUM,
                                ObjectIdGetDatum(relOid),
@@ -108,6 +108,7 @@ fixup_inherited_columns(Oid parentId, Oid childId, Bitmapset *columns)
    while ((index = bms_first_member(tmpset)) > 0)
    {
        attno = index + FirstLowInvalidHeapAttributeNumber;
+
        /*
         * whole-row-reference shall be fixed-up later
         */
@@ -158,14 +159,13 @@ check_relation_privileges(Oid relOid,
    bool        result = true;
 
    /*
-    * Hardwired Policies:
-    * SE-PostgreSQL enforces
-    * - clients cannot modify system catalogs using DMLs
-    * - clients cannot reference/modify toast relations using DMLs
+    * Hardwired Policies: SE-PostgreSQL enforces - clients cannot modify
+    * system catalogs using DMLs - clients cannot reference/modify toast
+    * relations using DMLs
     */
    if (sepgsql_getenforce() > 0)
    {
-       Oid     relnamespace = get_rel_namespace(relOid);
+       Oid         relnamespace = get_rel_namespace(relOid);
 
        if (IsSystemNamespace(relnamespace) &&
            (required & (SEPG_DB_TABLE__UPDATE |
@@ -242,7 +242,7 @@ check_relation_privileges(Oid relOid,
    {
        AttrNumber  attnum;
        uint32      column_perms = 0;
-       ObjectAddress   object;
+       ObjectAddress object;
 
        if (bms_is_member(index, selected))
            column_perms |= SEPG_DB_COLUMN__SELECT;
@@ -290,12 +290,12 @@ sepgsql_dml_privileges(List *rangeTabls, bool abort)
 {
    ListCell   *lr;
 
-   foreach (lr, rangeTabls)
+   foreach(lr, rangeTabls)
    {
-       RangeTblEntry  *rte = lfirst(lr);
-       uint32          required = 0;
-       List           *tableIds;
-       ListCell       *li;
+       RangeTblEntry *rte = lfirst(lr);
+       uint32      required = 0;
+       List       *tableIds;
+       ListCell   *li;
 
        /*
         * Only regular relations shall be checked
@@ -328,25 +328,24 @@ sepgsql_dml_privileges(List *rangeTabls, bool abort)
 
        /*
         * If this RangeTblEntry is also supposed to reference inherited
-        * tables, we need to check security label of the child tables.
-        * So, we expand rte->relid into list of OIDs of inheritance
-        * hierarchy, then checker routine will be invoked for each
-        * relations.
+        * tables, we need to check security label of the child tables. So, we
+        * expand rte->relid into list of OIDs of inheritance hierarchy, then
+        * checker routine will be invoked for each relations.
         */
        if (!rte->inh)
            tableIds = list_make1_oid(rte->relid);
        else
            tableIds = find_all_inheritors(rte->relid, NoLock, NULL);
 
-       foreach (li, tableIds)
+       foreach(li, tableIds)
        {
            Oid         tableOid = lfirst_oid(li);
            Bitmapset  *selectedCols;
            Bitmapset  *modifiedCols;
 
            /*
-            * child table has different attribute numbers, so we need
-            * to fix up them.
+            * child table has different attribute numbers, so we need to fix
+            * up them.
             */
            selectedCols = fixup_inherited_columns(rte->relid, tableOid,
                                                   rte->selectedCols);
index 5dc8a3ecaa8b704a158409d6be46d8cd755253c5..7797ccb199f088ed101b0c77b41d0b9f98a63d2d 100644 (file)
@@ -29,17 +29,17 @@ PG_MODULE_MAGIC;
 /*
  * Declarations
  */
-void _PG_init(void);
+void       _PG_init(void);
 
 /*
  * Saved hook entries (if stacked)
  */
-static object_access_hook_type         next_object_access_hook = NULL;
-static ClientAuthentication_hook_type  next_client_auth_hook = NULL;
-static ExecutorCheckPerms_hook_type        next_exec_check_perms_hook = NULL;
-static needs_fmgr_hook_type                next_needs_fmgr_hook = NULL;
-static fmgr_hook_type                  next_fmgr_hook = NULL;
-static ProcessUtility_hook_type            next_ProcessUtility_hook = NULL;
+static object_access_hook_type next_object_access_hook = NULL;
+static ClientAuthentication_hook_type next_client_auth_hook = NULL;
+static ExecutorCheckPerms_hook_type next_exec_check_perms_hook = NULL;
+static needs_fmgr_hook_type next_needs_fmgr_hook = NULL;
+static fmgr_hook_type next_fmgr_hook = NULL;
+static ProcessUtility_hook_type next_ProcessUtility_hook = NULL;
 
 /*
  * GUC: sepgsql.permissive = (on|off)
@@ -73,14 +73,14 @@ sepgsql_get_debug_audit(void)
 static void
 sepgsql_client_auth(Port *port, int status)
 {
-   char   *context;
+   char       *context;
 
    if (next_client_auth_hook)
-       (*next_client_auth_hook)(port, status);
+       (*next_client_auth_hook) (port, status);
 
    /*
-    * In the case when authentication failed, the supplied socket
-    * shall be closed soon, so we don't need to do anything here.
+    * In the case when authentication failed, the supplied socket shall be
+    * closed soon, so we don't need to do anything here.
     */
    if (status != STATUS_OK)
        return;
@@ -96,8 +96,8 @@ sepgsql_client_auth(Port *port, int status)
    sepgsql_set_client_label(context);
 
    /*
-    * Switch the current performing mode from INTERNAL to either
-    * DEFAULT or PERMISSIVE.
+    * Switch the current performing mode from INTERNAL to either DEFAULT or
+    * PERMISSIVE.
     */
    if (sepgsql_permissive)
        sepgsql_set_mode(SEPGSQL_MODE_PERMISSIVE);
@@ -113,12 +113,12 @@ sepgsql_client_auth(Port *port, int status)
  */
 static void
 sepgsql_object_access(ObjectAccessType access,
-                      Oid classId,
-                      Oid objectId,
-                      int subId)
+                     Oid classId,
+                     Oid objectId,
+                     int subId)
 {
    if (next_object_access_hook)
-       (*next_object_access_hook)(access, classId, objectId, subId);
+       (*next_object_access_hook) (access, classId, objectId, subId);
 
    switch (access)
    {
@@ -147,7 +147,7 @@ sepgsql_object_access(ObjectAccessType access,
            break;
 
        default:
-           elog(ERROR, "unexpected object access type: %d", (int)access);
+           elog(ERROR, "unexpected object access type: %d", (int) access);
            break;
    }
 }
@@ -161,11 +161,11 @@ static bool
 sepgsql_exec_check_perms(List *rangeTabls, bool abort)
 {
    /*
-    * If security provider is stacking and one of them replied 'false'
-    * at least, we don't need to check any more.
+    * If security provider is stacking and one of them replied 'false' at
+    * least, we don't need to check any more.
     */
    if (next_exec_check_perms_hook &&
-       !(*next_exec_check_perms_hook)(rangeTabls, abort))
+       !(*next_exec_check_perms_hook) (rangeTabls, abort))
        return false;
 
    if (!sepgsql_dml_privileges(rangeTabls, abort))
@@ -184,20 +184,19 @@ sepgsql_exec_check_perms(List *rangeTabls, bool abort)
 static bool
 sepgsql_needs_fmgr_hook(Oid functionId)
 {
-   char   *old_label;
-   char   *new_label;
-   char   *function_label;
+   char       *old_label;
+   char       *new_label;
+   char       *function_label;
 
    if (next_needs_fmgr_hook &&
-       (*next_needs_fmgr_hook)(functionId))
+       (*next_needs_fmgr_hook) (functionId))
        return true;
 
    /*
-    * SELinux needs the function to be called via security_definer
-    * wrapper, if this invocation will take a domain-transition.
-    * We call these functions as trusted-procedure, if the security
-    * policy has a rule that switches security label of the client
-    * on execution.
+    * SELinux needs the function to be called via security_definer wrapper,
+    * if this invocation will take a domain-transition. We call these
+    * functions as trusted-procedure, if the security policy has a rule that
+    * switches security label of the client on execution.
     */
    old_label = sepgsql_get_client_label();
    new_label = sepgsql_proc_get_domtrans(functionId);
@@ -210,9 +209,9 @@ sepgsql_needs_fmgr_hook(Oid functionId)
 
    /*
     * Even if not a trusted-procedure, this function should not be inlined
-    * unless the client has db_procedure:{execute} permission.
-    * Please note that it shall be actually failed later because of same
-    * reason with ACL_EXECUTE.
+    * unless the client has db_procedure:{execute} permission. Please note
+    * that it shall be actually failed later because of same reason with
+    * ACL_EXECUTE.
     */
    function_label = sepgsql_get_label(ProcedureRelationId, functionId, 0);
    if (sepgsql_check_perms(sepgsql_get_client_label(),
@@ -238,20 +237,21 @@ static void
 sepgsql_fmgr_hook(FmgrHookEventType event,
                  FmgrInfo *flinfo, Datum *private)
 {
-   struct {
-       char   *old_label;
-       char   *new_label;
-       Datum   next_private;
-   } *stack;
+   struct
+   {
+       char       *old_label;
+       char       *new_label;
+       Datum       next_private;
+   }          *stack;
 
    switch (event)
    {
        case FHET_START:
-           stack = (void *)DatumGetPointer(*private);
+           stack = (void *) DatumGetPointer(*private);
            if (!stack)
            {
-               MemoryContext   oldcxt;
-               const char     *cur_label = sepgsql_get_client_label();
+               MemoryContext oldcxt;
+               const char *cur_label = sepgsql_get_client_label();
 
                oldcxt = MemoryContextSwitchTo(flinfo->fn_mcxt);
                stack = palloc(sizeof(*stack));
@@ -265,8 +265,8 @@ sepgsql_fmgr_hook(FmgrHookEventType event,
                {
                    /*
                     * process:transition permission between old and new
-                    * label, when user tries to switch security label of
-                    * the client on execution of trusted procedure.
+                    * label, when user tries to switch security label of the
+                    * client on execution of trusted procedure.
                     */
                    sepgsql_check_perms(cur_label, stack->new_label,
                                        SEPG_CLASS_PROCESS,
@@ -280,22 +280,22 @@ sepgsql_fmgr_hook(FmgrHookEventType event,
            stack->old_label = sepgsql_set_client_label(stack->new_label);
 
            if (next_fmgr_hook)
-               (*next_fmgr_hook)(event, flinfo, &stack->next_private);
+               (*next_fmgr_hook) (event, flinfo, &stack->next_private);
            break;
 
        case FHET_END:
        case FHET_ABORT:
-           stack = (void *)DatumGetPointer(*private);
+           stack = (void *) DatumGetPointer(*private);
 
            if (next_fmgr_hook)
-               (*next_fmgr_hook)(event, flinfo, &stack->next_private);
+               (*next_fmgr_hook) (event, flinfo, &stack->next_private);
 
            sepgsql_set_client_label(stack->old_label);
            stack->old_label = NULL;
            break;
 
        default:
-           elog(ERROR, "unexpected event type: %d", (int)event);
+           elog(ERROR, "unexpected event type: %d", (int) event);
            break;
    }
 }
@@ -315,8 +315,8 @@ sepgsql_utility_command(Node *parsetree,
                        char *completionTag)
 {
    if (next_ProcessUtility_hook)
-       (*next_ProcessUtility_hook)(parsetree, queryString, params,
-                                   isTopLevel, dest, completionTag);
+       (*next_ProcessUtility_hook) (parsetree, queryString, params,
+                                    isTopLevel, dest, completionTag);
 
    /*
     * Check command tag to avoid nefarious operations
@@ -324,6 +324,7 @@ sepgsql_utility_command(Node *parsetree,
    switch (nodeTag(parsetree))
    {
        case T_LoadStmt:
+
            /*
             * We reject LOAD command across the board on enforcing mode,
             * because a binary module can arbitrarily override hooks.
@@ -336,11 +337,12 @@ sepgsql_utility_command(Node *parsetree,
            }
            break;
        default:
+
            /*
-            * Right now we don't check any other utility commands,
-            * because it needs more detailed information to make
-            * access control decision here, but we don't want to
-            * have two parse and analyze routines individually.
+            * Right now we don't check any other utility commands, because it
+            * needs more detailed information to make access control decision
+            * here, but we don't want to have two parse and analyze routines
+            * individually.
             */
            break;
    }
@@ -358,7 +360,7 @@ sepgsql_utility_command(Node *parsetree,
 void
 _PG_init(void)
 {
-   char   *context;
+   char       *context;
 
    /*
     * We allow to load the SE-PostgreSQL module on single-user-mode or
@@ -367,12 +369,12 @@ _PG_init(void)
    if (IsUnderPostmaster)
        ereport(ERROR,
                (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
-                errmsg("sepgsql must be loaded via shared_preload_libraries")));
+            errmsg("sepgsql must be loaded via shared_preload_libraries")));
 
    /*
-    * Check availability of SELinux on the platform.
-    * If disabled, we cannot activate any SE-PostgreSQL features,
-    * and we have to skip rest of initialization.
+    * Check availability of SELinux on the platform. If disabled, we cannot
+    * activate any SE-PostgreSQL features, and we have to skip rest of
+    * initialization.
     */
    if (is_selinux_enabled() < 1)
    {
@@ -383,8 +385,8 @@ _PG_init(void)
    /*
     * sepgsql.permissive = (on|off)
     *
-    * This variable controls performing mode of SE-PostgreSQL
-    * on user's session.
+    * This variable controls performing mode of SE-PostgreSQL on user's
+    * session.
     */
    DefineCustomBoolVariable("sepgsql.permissive",
                             "Turn on/off permissive mode in SE-PostgreSQL",
@@ -400,10 +402,9 @@ _PG_init(void)
    /*
     * sepgsql.debug_audit = (on|off)
     *
-    * This variable allows users to turn on/off audit logs on access
-    * control decisions, independent from auditallow/auditdeny setting
-    * in the security policy.
-    * We intend to use this option for debugging purpose.
+    * This variable allows users to turn on/off audit logs on access control
+    * decisions, independent from auditallow/auditdeny setting in the
+    * security policy. We intend to use this option for debugging purpose.
     */
    DefineCustomBoolVariable("sepgsql.debug_audit",
                             "Turn on/off debug audit messages",
@@ -419,13 +420,12 @@ _PG_init(void)
    /*
     * Set up dummy client label.
     *
-    * XXX - note that PostgreSQL launches background worker process
-    * like autovacuum without authentication steps. So, we initialize
-    * sepgsql_mode with SEPGSQL_MODE_INTERNAL, and client_label with
-    * the security context of server process.
-    * Later, it also launches background of user session. In this case,
-    * the process is always hooked on post-authentication, and we can
-    * initialize the sepgsql_mode and client_label correctly.
+    * XXX - note that PostgreSQL launches background worker process like
+    * autovacuum without authentication steps. So, we initialize sepgsql_mode
+    * with SEPGSQL_MODE_INTERNAL, and client_label with the security context
+    * of server process. Later, it also launches background of user session.
+    * In this case, the process is always hooked on post-authentication, and
+    * we can initialize the sepgsql_mode and client_label correctly.
     */
    if (getcon_raw(&context) < 0)
        ereport(ERROR,
index 828512a961aa7f00f94a0f32760b350f4d72e8fb..669ee35ac3e4a6d3515364e662568d865af1dbb2 100644 (file)
@@ -38,7 +38,7 @@
  *
  * security label of the client process
  */
-static char       *client_label = NULL;
+static char *client_label = NULL;
 
 char *
 sepgsql_get_client_label(void)
@@ -49,7 +49,7 @@ sepgsql_get_client_label(void)
 char *
 sepgsql_set_client_label(char *new_label)
 {
-   char   *old_label = client_label;
+   char       *old_label = client_label;
 
    client_label = new_label;
 
@@ -66,22 +66,22 @@ sepgsql_set_client_label(char *new_label)
 char *
 sepgsql_get_label(Oid classId, Oid objectId, int32 subId)
 {
-   ObjectAddress   object;
-   char           *label;
+   ObjectAddress object;
+   char       *label;
 
-   object.classId      = classId;
-   object.objectId     = objectId;
-   object.objectSubId  = subId;
+   object.classId = classId;
+   object.objectId = objectId;
+   object.objectSubId = subId;
 
    label = GetSecurityLabel(&object, SEPGSQL_LABEL_TAG);
-   if (!label || security_check_context_raw((security_context_t)label))
+   if (!label || security_check_context_raw((security_context_t) label))
    {
-       security_context_t  unlabeled;
+       security_context_t unlabeled;
 
        if (security_get_initial_context_raw("unlabeled", &unlabeled) < 0)
            ereport(ERROR,
                    (errcode(ERRCODE_INTERNAL_ERROR),
-                    errmsg("SELinux: failed to get initial security label: %m")));
+              errmsg("SELinux: failed to get initial security label: %m")));
        PG_TRY();
        {
            label = pstrdup(unlabeled);
@@ -107,21 +107,22 @@ void
 sepgsql_object_relabel(const ObjectAddress *object, const char *seclabel)
 {
    /*
-    * validate format of the supplied security label,
-    * if it is security context of selinux.
+    * validate format of the supplied security label, if it is security
+    * context of selinux.
     */
    if (seclabel &&
        security_check_context_raw((security_context_t) seclabel) < 0)
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_NAME),
-                errmsg("SELinux: invalid security label: \"%s\"", seclabel)));
+              errmsg("SELinux: invalid security label: \"%s\"", seclabel)));
+
    /*
     * Do actual permission checks for each object classes
     */
    switch (object->classId)
    {
        case NamespaceRelationId:
-           sepgsql_schema_relabel(object->objectId, seclabel);
+           sepgsql_schema_relabel(object->objectId, seclabel);
            break;
        case RelationRelationId:
            if (object->objectSubId == 0)
@@ -151,7 +152,7 @@ PG_FUNCTION_INFO_V1(sepgsql_getcon);
 Datum
 sepgsql_getcon(PG_FUNCTION_ARGS)
 {
-   char   *client_label;
+   char       *client_label;
 
    if (!sepgsql_is_enabled())
        PG_RETURN_NULL();
@@ -171,9 +172,9 @@ PG_FUNCTION_INFO_V1(sepgsql_mcstrans_in);
 Datum
 sepgsql_mcstrans_in(PG_FUNCTION_ARGS)
 {
-   text   *label = PG_GETARG_TEXT_P(0);
-   char   *raw_label;
-   char   *result;
+   text       *label = PG_GETARG_TEXT_P(0);
+   char       *raw_label;
+   char       *result;
 
    if (!sepgsql_is_enabled())
        ereport(ERROR,
@@ -211,9 +212,9 @@ PG_FUNCTION_INFO_V1(sepgsql_mcstrans_out);
 Datum
 sepgsql_mcstrans_out(PG_FUNCTION_ARGS)
 {
-   text   *label = PG_GETARG_TEXT_P(0);
-   char   *qual_label;
-   char   *result;
+   text       *label = PG_GETARG_TEXT_P(0);
+   char       *qual_label;
+   char       *result;
 
    if (!sepgsql_is_enabled())
        ereport(ERROR,
@@ -250,8 +251,8 @@ static char *
 quote_object_name(const char *src1, const char *src2,
                  const char *src3, const char *src4)
 {
-   StringInfoData  result;
-   const char     *temp;
+   StringInfoData result;
+   const char *temp;
 
    initStringInfo(&result);
 
@@ -260,28 +261,28 @@ quote_object_name(const char *src1, const char *src2,
        temp = quote_identifier(src1);
        appendStringInfo(&result, "%s", temp);
        if (src1 != temp)
-           pfree((void *)temp);
+           pfree((void *) temp);
    }
    if (src2)
    {
        temp = quote_identifier(src2);
        appendStringInfo(&result, ".%s", temp);
        if (src2 != temp)
-           pfree((void *)temp);
+           pfree((void *) temp);
    }
    if (src3)
    {
        temp = quote_identifier(src3);
        appendStringInfo(&result, ".%s", temp);
        if (src3 != temp)
-           pfree((void *)temp);
+           pfree((void *) temp);
    }
    if (src4)
    {
        temp = quote_identifier(src4);
        appendStringInfo(&result, ".%s", temp);
        if (src4 != temp)
-           pfree((void *)temp);
+           pfree((void *) temp);
    }
    return result.data;
 }
@@ -294,19 +295,19 @@ quote_object_name(const char *src1, const char *src2,
  * catalog OID.
  */
 static void
-exec_object_restorecon(struct selabel_handle *sehnd, Oid catalogId)
+exec_object_restorecon(struct selabel_handle * sehnd, Oid catalogId)
 {
-   Relation        rel;
-   SysScanDesc     sscan;
-   HeapTuple       tuple;
-   char           *database_name = get_database_name(MyDatabaseId);
-   char           *namespace_name;
-   Oid             namespace_id;
-   char           *relation_name;
+   Relation    rel;
+   SysScanDesc sscan;
+   HeapTuple   tuple;
+   char       *database_name = get_database_name(MyDatabaseId);
+   char       *namespace_name;
+   Oid         namespace_id;
+   char       *relation_name;
 
    /*
-    * Open the target catalog. We don't want to allow writable
-    * accesses by other session during initial labeling.
+    * Open the target catalog. We don't want to allow writable accesses by
+    * other session during initial labeling.
     */
    rel = heap_open(catalogId, AccessShareLock);
 
@@ -314,18 +315,18 @@ exec_object_restorecon(struct selabel_handle *sehnd, Oid catalogId)
                               SnapshotNow, 0, NULL);
    while (HeapTupleIsValid(tuple = systable_getnext(sscan)))
    {
-       Form_pg_namespace   nspForm;
-       Form_pg_class       relForm;
-       Form_pg_attribute   attForm;
-       Form_pg_proc        proForm;
-       char               *objname;
-       int                 objtype = 1234;
-       ObjectAddress       object;
-       security_context_t  context;
+       Form_pg_namespace nspForm;
+       Form_pg_class relForm;
+       Form_pg_attribute attForm;
+       Form_pg_proc proForm;
+       char       *objname;
+       int         objtype = 1234;
+       ObjectAddress object;
+       security_context_t context;
 
        /*
-        * The way to determine object name depends on object classes.
-        * So, any branches set up `objtype', `objname' and `object' here.
+        * The way to determine object name depends on object classes. So, any
+        * branches set up `objtype', `objname' and `object' here.
         */
        switch (catalogId)
        {
@@ -409,7 +410,7 @@ exec_object_restorecon(struct selabel_handle *sehnd, Oid catalogId)
 
            default:
                elog(ERROR, "unexpected catalog id: %u", catalogId);
-               objname = NULL;     /* for compiler quiet */
+               objname = NULL; /* for compiler quiet */
                break;
        }
 
@@ -464,8 +465,8 @@ PG_FUNCTION_INFO_V1(sepgsql_restorecon);
 Datum
 sepgsql_restorecon(PG_FUNCTION_ARGS)
 {
-   struct selabel_handle  *sehnd;
-   struct selinux_opt      seopts;
+   struct selabel_handle *sehnd;
+   struct selinux_opt seopts;
 
    /*
     * SELinux has to be enabled on the running platform.
@@ -474,19 +475,19 @@ sepgsql_restorecon(PG_FUNCTION_ARGS)
        ereport(ERROR,
                (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
                 errmsg("sepgsql is not currently enabled")));
+
    /*
-    * Check DAC permission. Only superuser can set up initial
-    * security labels, like root-user in filesystems
+    * Check DAC permission. Only superuser can set up initial security
+    * labels, like root-user in filesystems
     */
    if (!superuser())
        ereport(ERROR,
                (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-                errmsg("SELinux: must be superuser to restore initial contexts")));
+         errmsg("SELinux: must be superuser to restore initial contexts")));
 
    /*
-    * Open selabel_lookup(3) stuff. It provides a set of mapping
-    * between an initial security label and object class/name due
-    * to the system setting.
+    * Open selabel_lookup(3) stuff. It provides a set of mapping between an
+    * initial security label and object class/name due to the system setting.
     */
    if (PG_ARGISNULL(0))
    {
@@ -502,12 +503,12 @@ sepgsql_restorecon(PG_FUNCTION_ARGS)
    if (!sehnd)
        ereport(ERROR,
                (errcode(ERRCODE_INTERNAL_ERROR),
-                errmsg("SELinux: failed to initialize labeling handle: %m")));
+              errmsg("SELinux: failed to initialize labeling handle: %m")));
    PG_TRY();
    {
        /*
-        * Right now, we have no support labeling on the shared
-        * database objects, such as database, role, or tablespace.
+        * Right now, we have no support labeling on the shared database
+        * objects, such as database, role, or tablespace.
         */
        exec_object_restorecon(sehnd, NamespaceRelationId);
        exec_object_restorecon(sehnd, RelationRelationId);
@@ -519,7 +520,7 @@ sepgsql_restorecon(PG_FUNCTION_ARGS)
        selabel_close(sehnd);
        PG_RE_THROW();
    }
-   PG_END_TRY();   
+   PG_END_TRY();
 
    selabel_close(sehnd);
 
index 5a0c4947f726b3722e229e601d3b47e31ba10530..3b8bf23ba393cfe77bb956b2662c6698a9598aa3 100644 (file)
 void
 sepgsql_proc_post_create(Oid functionId)
 {
-   Relation        rel;
-   ScanKeyData     skey;
-   SysScanDesc     sscan;
-   HeapTuple       tuple;
-   Oid             namespaceId;
-   ObjectAddress   object;
-   char           *scontext;
-   char           *tcontext;
-   char           *ncontext;
+   Relation    rel;
+   ScanKeyData skey;
+   SysScanDesc sscan;
+   HeapTuple   tuple;
+   Oid         namespaceId;
+   ObjectAddress object;
+   char       *scontext;
+   char       *tcontext;
+   char       *ncontext;
 
    /*
     * Fetch namespace of the new procedure. Because pg_proc entry is not
@@ -67,8 +67,8 @@ sepgsql_proc_post_create(Oid functionId)
    heap_close(rel, AccessShareLock);
 
    /*
-    * Compute a default security label when we create a new procedure
-    * object under the specified namespace.
+    * Compute a default security label when we create a new procedure object
+    * under the specified namespace.
     */
    scontext = sepgsql_get_client_label();
    tcontext = sepgsql_get_label(NamespaceRelationId, namespaceId, 0);
@@ -144,9 +144,9 @@ sepgsql_proc_relabel(Oid functionId, const char *seclabel)
 char *
 sepgsql_proc_get_domtrans(Oid functionId)
 {
-   char   *scontext = sepgsql_get_client_label();
-   char   *tcontext;
-   char   *ncontext;
+   char       *scontext = sepgsql_get_client_label();
+   char       *tcontext;
+   char       *ncontext;
 
    tcontext = sepgsql_get_label(ProcedureRelationId, functionId, 0);
 
index ed5e3adc0e8cc1d4377ccd4e25d3f96b1e08d8b9..963cfdf9f10c7ba9845f7a1f3a0eb0538791b910 100644 (file)
 void
 sepgsql_attribute_post_create(Oid relOid, AttrNumber attnum)
 {
-   char           *scontext = sepgsql_get_client_label();
-   char           *tcontext;
-   char           *ncontext;
-   ObjectAddress   object;
+   char       *scontext = sepgsql_get_client_label();
+   char       *tcontext;
+   char       *ncontext;
+   ObjectAddress object;
 
    /*
-    * Only attributes within regular relation have individual
-    * security labels.
+    * Only attributes within regular relation have individual security
+    * labels.
     */
    if (get_rel_relkind(relOid) != RELKIND_RELATION)
        return;
 
    /*
-    * Compute a default security label when we create a new procedure
-    * object under the specified namespace.
+    * Compute a default security label when we create a new procedure object
+    * under the specified namespace.
     */
    scontext = sepgsql_get_client_label();
    tcontext = sepgsql_get_label(RelationRelationId, relOid, 0);
    ncontext = sepgsql_compute_create(scontext, tcontext,
                                      SEPG_CLASS_DB_COLUMN);
+
    /*
     * Assign the default security label on a new procedure
     */
@@ -81,7 +82,7 @@ sepgsql_attribute_relabel(Oid relOid, AttrNumber attnum,
    char       *scontext = sepgsql_get_client_label();
    char       *tcontext;
    char       *audit_name;
-   ObjectAddress   object;
+   ObjectAddress object;
 
    if (get_rel_relkind(relOid) != RELKIND_RELATION)
        ereport(ERROR,
@@ -127,21 +128,21 @@ sepgsql_attribute_relabel(Oid relOid, AttrNumber attnum,
 void
 sepgsql_relation_post_create(Oid relOid)
 {
-   Relation        rel;
-   ScanKeyData     skey;
-   SysScanDesc     sscan;
-   HeapTuple       tuple;
-   Form_pg_class   classForm;
-   ObjectAddress   object;
-   uint16          tclass;
-   char           *scontext;   /* subject */
-   char           *tcontext;   /* schema */
-   char           *rcontext;   /* relation */
-   char           *ccontext;   /* column */
+   Relation    rel;
+   ScanKeyData skey;
+   SysScanDesc sscan;
+   HeapTuple   tuple;
+   Form_pg_class classForm;
+   ObjectAddress object;
+   uint16      tclass;
+   char       *scontext;       /* subject */
+   char       *tcontext;       /* schema */
+   char       *rcontext;       /* relation */
+   char       *ccontext;       /* column */
 
    /*
-    * Fetch catalog record of the new relation. Because pg_class entry is
-    * not visible right now, we need to scan the catalog using SnapshotSelf.
+    * Fetch catalog record of the new relation. Because pg_class entry is not
+    * visible right now, we need to scan the catalog using SnapshotSelf.
     */
    rel = heap_open(RelationRelationId, AccessShareLock);
 
@@ -166,11 +167,11 @@ sepgsql_relation_post_create(Oid relOid)
    else if (classForm->relkind == RELKIND_VIEW)
        tclass = SEPG_CLASS_DB_VIEW;
    else
-       goto out;   /* No need to assign individual labels */
+       goto out;               /* No need to assign individual labels */
 
    /*
-    * Compute a default security label when we create a new relation
-    * object under the specified namespace.
+    * Compute a default security label when we create a new relation object
+    * under the specified namespace.
     */
    scontext = sepgsql_get_client_label();
    tcontext = sepgsql_get_label(NamespaceRelationId,
@@ -186,8 +187,8 @@ sepgsql_relation_post_create(Oid relOid)
    SetSecurityLabel(&object, SEPGSQL_LABEL_TAG, rcontext);
 
    /*
-    * We also assigns a default security label on columns of the new
-    * regular tables.
+    * We also assigns a default security label on columns of the new regular
+    * tables.
     */
    if (classForm->relkind == RELKIND_RELATION)
    {
index 8538d18ac9e266d1a061cbc8bf6df4a31e518d56..0de89971fbc15c879e7bbac765ebd26dea62460b 100644 (file)
 void
 sepgsql_schema_post_create(Oid namespaceId)
 {
-   char           *scontext = sepgsql_get_client_label();
-   char           *tcontext;
-   char           *ncontext;
-   ObjectAddress   object;
+   char       *scontext = sepgsql_get_client_label();
+   char       *tcontext;
+   char       *ncontext;
+   ObjectAddress object;
 
    /*
-    * FIXME: Right now, we assume pg_database object has a fixed
-    * security label, because pg_seclabel does not support to store
-    * label of shared database objects.
+    * FIXME: Right now, we assume pg_database object has a fixed security
+    * label, because pg_seclabel does not support to store label of shared
+    * database objects.
     */
    tcontext = "system_u:object_r:sepgsql_db_t:s0";
 
    /*
-    * Compute a default security label when we create a new schema
-    * object under the working database.
+    * Compute a default security label when we create a new schema object
+    * under the working database.
     */
    ncontext = sepgsql_compute_create(scontext, tcontext,
                                      SEPG_CLASS_DB_SCHEMA);
index 03ba25cef082780f84ff526fc9111a0f67e70667..1f5a97e878ab1d67bd66a5a02500a6c1ecb3c989 100644 (file)
  */
 static struct
 {
-   const char         *class_name;
-   uint16              class_code;
+   const char *class_name;
+   uint16      class_code;
    struct
    {
-       const char     *av_name;
-       uint32          av_code;
-   } av[32];
-} selinux_catalog[] = {
+       const char *av_name;
+       uint32      av_code;
+   }           av[32];
+}  selinux_catalog[] =
+
+{
    {
-       "process",              SEPG_CLASS_PROCESS,
+       "process", SEPG_CLASS_PROCESS,
        {
-           { "transition",     SEPG_PROCESS__TRANSITION },
-           { NULL, 0UL }
+           {
+               "transition", SEPG_PROCESS__TRANSITION
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "file",                 SEPG_CLASS_FILE,
+       "file", SEPG_CLASS_FILE,
        {
-           { "read",           SEPG_FILE__READ },
-           { "write",          SEPG_FILE__WRITE },
-           { "create",         SEPG_FILE__CREATE },
-           { "getattr",        SEPG_FILE__GETATTR },
-           { "unlink",         SEPG_FILE__UNLINK },
-           { "rename",         SEPG_FILE__RENAME },
-           { "append",         SEPG_FILE__APPEND },
-           { NULL, 0UL }
+           {
+               "read", SEPG_FILE__READ
+           },
+           {
+               "write", SEPG_FILE__WRITE
+           },
+           {
+               "create", SEPG_FILE__CREATE
+           },
+           {
+               "getattr", SEPG_FILE__GETATTR
+           },
+           {
+               "unlink", SEPG_FILE__UNLINK
+           },
+           {
+               "rename", SEPG_FILE__RENAME
+           },
+           {
+               "append", SEPG_FILE__APPEND
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "dir",                  SEPG_CLASS_DIR,
+       "dir", SEPG_CLASS_DIR,
        {
-           { "read",           SEPG_DIR__READ },
-           { "write",          SEPG_DIR__WRITE },
-           { "create",         SEPG_DIR__CREATE },
-           { "getattr",        SEPG_DIR__GETATTR },
-           { "unlink",         SEPG_DIR__UNLINK },
-           { "rename",         SEPG_DIR__RENAME },
-           { "search",         SEPG_DIR__SEARCH },
-           { "add_name",       SEPG_DIR__ADD_NAME },
-           { "remove_name",    SEPG_DIR__REMOVE_NAME },
-           { "rmdir",          SEPG_DIR__RMDIR },
-           { "reparent",       SEPG_DIR__REPARENT },
-           { NULL, 0UL }
+           {
+               "read", SEPG_DIR__READ
+           },
+           {
+               "write", SEPG_DIR__WRITE
+           },
+           {
+               "create", SEPG_DIR__CREATE
+           },
+           {
+               "getattr", SEPG_DIR__GETATTR
+           },
+           {
+               "unlink", SEPG_DIR__UNLINK
+           },
+           {
+               "rename", SEPG_DIR__RENAME
+           },
+           {
+               "search", SEPG_DIR__SEARCH
+           },
+           {
+               "add_name", SEPG_DIR__ADD_NAME
+           },
+           {
+               "remove_name", SEPG_DIR__REMOVE_NAME
+           },
+           {
+               "rmdir", SEPG_DIR__RMDIR
+           },
+           {
+               "reparent", SEPG_DIR__REPARENT
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "lnk_file",             SEPG_CLASS_LNK_FILE,
+       "lnk_file", SEPG_CLASS_LNK_FILE,
        {
-           { "read",           SEPG_LNK_FILE__READ },
-           { "write",          SEPG_LNK_FILE__WRITE },
-           { "create",         SEPG_LNK_FILE__CREATE },
-           { "getattr",        SEPG_LNK_FILE__GETATTR },
-           { "unlink",         SEPG_LNK_FILE__UNLINK },
-           { "rename",         SEPG_LNK_FILE__RENAME },
-           { NULL, 0UL }
+           {
+               "read", SEPG_LNK_FILE__READ
+           },
+           {
+               "write", SEPG_LNK_FILE__WRITE
+           },
+           {
+               "create", SEPG_LNK_FILE__CREATE
+           },
+           {
+               "getattr", SEPG_LNK_FILE__GETATTR
+           },
+           {
+               "unlink", SEPG_LNK_FILE__UNLINK
+           },
+           {
+               "rename", SEPG_LNK_FILE__RENAME
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "chr_file",             SEPG_CLASS_CHR_FILE,
+       "chr_file", SEPG_CLASS_CHR_FILE,
        {
-           { "read",           SEPG_CHR_FILE__READ },
-           { "write",          SEPG_CHR_FILE__WRITE },
-           { "create",         SEPG_CHR_FILE__CREATE },
-           { "getattr",        SEPG_CHR_FILE__GETATTR },
-           { "unlink",         SEPG_CHR_FILE__UNLINK },
-           { "rename",         SEPG_CHR_FILE__RENAME },
-           { NULL, 0UL }
+           {
+               "read", SEPG_CHR_FILE__READ
+           },
+           {
+               "write", SEPG_CHR_FILE__WRITE
+           },
+           {
+               "create", SEPG_CHR_FILE__CREATE
+           },
+           {
+               "getattr", SEPG_CHR_FILE__GETATTR
+           },
+           {
+               "unlink", SEPG_CHR_FILE__UNLINK
+           },
+           {
+               "rename", SEPG_CHR_FILE__RENAME
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "blk_file",             SEPG_CLASS_BLK_FILE,
+       "blk_file", SEPG_CLASS_BLK_FILE,
        {
-           { "read",           SEPG_BLK_FILE__READ },
-           { "write",          SEPG_BLK_FILE__WRITE },
-           { "create",         SEPG_BLK_FILE__CREATE },
-           { "getattr",        SEPG_BLK_FILE__GETATTR },
-           { "unlink",         SEPG_BLK_FILE__UNLINK },
-           { "rename",         SEPG_BLK_FILE__RENAME },
-           { NULL, 0UL }
+           {
+               "read", SEPG_BLK_FILE__READ
+           },
+           {
+               "write", SEPG_BLK_FILE__WRITE
+           },
+           {
+               "create", SEPG_BLK_FILE__CREATE
+           },
+           {
+               "getattr", SEPG_BLK_FILE__GETATTR
+           },
+           {
+               "unlink", SEPG_BLK_FILE__UNLINK
+           },
+           {
+               "rename", SEPG_BLK_FILE__RENAME
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "sock_file",            SEPG_CLASS_SOCK_FILE,
+       "sock_file", SEPG_CLASS_SOCK_FILE,
        {
-           { "read",           SEPG_SOCK_FILE__READ },
-           { "write",          SEPG_SOCK_FILE__WRITE },
-           { "create",         SEPG_SOCK_FILE__CREATE },
-           { "getattr",        SEPG_SOCK_FILE__GETATTR },
-           { "unlink",         SEPG_SOCK_FILE__UNLINK },
-           { "rename",         SEPG_SOCK_FILE__RENAME },
-           { NULL, 0UL }
+           {
+               "read", SEPG_SOCK_FILE__READ
+           },
+           {
+               "write", SEPG_SOCK_FILE__WRITE
+           },
+           {
+               "create", SEPG_SOCK_FILE__CREATE
+           },
+           {
+               "getattr", SEPG_SOCK_FILE__GETATTR
+           },
+           {
+               "unlink", SEPG_SOCK_FILE__UNLINK
+           },
+           {
+               "rename", SEPG_SOCK_FILE__RENAME
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "fifo_file",            SEPG_CLASS_FIFO_FILE,
+       "fifo_file", SEPG_CLASS_FIFO_FILE,
        {
-           { "read",           SEPG_FIFO_FILE__READ },
-           { "write",          SEPG_FIFO_FILE__WRITE },
-           { "create",         SEPG_FIFO_FILE__CREATE },
-           { "getattr",        SEPG_FIFO_FILE__GETATTR },
-           { "unlink",         SEPG_FIFO_FILE__UNLINK },
-           { "rename",         SEPG_FIFO_FILE__RENAME },
-           { NULL, 0UL }
+           {
+               "read", SEPG_FIFO_FILE__READ
+           },
+           {
+               "write", SEPG_FIFO_FILE__WRITE
+           },
+           {
+               "create", SEPG_FIFO_FILE__CREATE
+           },
+           {
+               "getattr", SEPG_FIFO_FILE__GETATTR
+           },
+           {
+               "unlink", SEPG_FIFO_FILE__UNLINK
+           },
+           {
+               "rename", SEPG_FIFO_FILE__RENAME
+           },
+           {
+               NULL, 0UL
+           }
        }
    },
    {
-       "db_database",          SEPG_CLASS_DB_DATABASE,
+       "db_database", SEPG_CLASS_DB_DATABASE,
        {
-           { "create",         SEPG_DB_DATABASE__CREATE },
-           { "drop",           SEPG_DB_DATABASE__DROP },
-           { "getattr",        SEPG_DB_DATABASE__GETATTR },
-           { "setattr",        SEPG_DB_DATABASE__SETATTR },
-           { "relabelfrom",    SEPG_DB_DATABASE__RELABELFROM },
-           { "relabelto",      SEPG_DB_DATABASE__RELABELTO },
-           { "access",         SEPG_DB_DATABASE__ACCESS },
-           { "load_module",    SEPG_DB_DATABASE__LOAD_MODULE },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_DATABASE__CREATE
+           },
+           {
+               "drop", SEPG_DB_DATABASE__DROP
+           },
+           {
+               "getattr", SEPG_DB_DATABASE__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_DATABASE__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_DATABASE__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_DATABASE__RELABELTO
+           },
+           {
+               "access", SEPG_DB_DATABASE__ACCESS
+           },
+           {
+               "load_module", SEPG_DB_DATABASE__LOAD_MODULE
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_schema",            SEPG_CLASS_DB_SCHEMA,
+       "db_schema", SEPG_CLASS_DB_SCHEMA,
        {
-           { "create",         SEPG_DB_SCHEMA__CREATE },
-           { "drop",           SEPG_DB_SCHEMA__DROP },
-           { "getattr",        SEPG_DB_SCHEMA__GETATTR },
-           { "setattr",        SEPG_DB_SCHEMA__SETATTR },
-           { "relabelfrom",    SEPG_DB_SCHEMA__RELABELFROM },
-           { "relabelto",      SEPG_DB_SCHEMA__RELABELTO },
-           { "search",         SEPG_DB_SCHEMA__SEARCH },
-           { "add_name",       SEPG_DB_SCHEMA__ADD_NAME },
-           { "remove_name",    SEPG_DB_SCHEMA__REMOVE_NAME },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_SCHEMA__CREATE
+           },
+           {
+               "drop", SEPG_DB_SCHEMA__DROP
+           },
+           {
+               "getattr", SEPG_DB_SCHEMA__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_SCHEMA__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_SCHEMA__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_SCHEMA__RELABELTO
+           },
+           {
+               "search", SEPG_DB_SCHEMA__SEARCH
+           },
+           {
+               "add_name", SEPG_DB_SCHEMA__ADD_NAME
+           },
+           {
+               "remove_name", SEPG_DB_SCHEMA__REMOVE_NAME
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_table",             SEPG_CLASS_DB_TABLE,
+       "db_table", SEPG_CLASS_DB_TABLE,
        {
-           { "create",         SEPG_DB_TABLE__CREATE },
-           { "drop",           SEPG_DB_TABLE__DROP },
-           { "getattr",        SEPG_DB_TABLE__GETATTR },
-           { "setattr",        SEPG_DB_TABLE__SETATTR },
-           { "relabelfrom",    SEPG_DB_TABLE__RELABELFROM },
-           { "relabelto",      SEPG_DB_TABLE__RELABELTO },
-           { "select",         SEPG_DB_TABLE__SELECT },
-           { "update",         SEPG_DB_TABLE__UPDATE },
-           { "insert",         SEPG_DB_TABLE__INSERT },
-           { "delete",         SEPG_DB_TABLE__DELETE },
-           { "lock",           SEPG_DB_TABLE__LOCK },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_TABLE__CREATE
+           },
+           {
+               "drop", SEPG_DB_TABLE__DROP
+           },
+           {
+               "getattr", SEPG_DB_TABLE__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_TABLE__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_TABLE__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_TABLE__RELABELTO
+           },
+           {
+               "select", SEPG_DB_TABLE__SELECT
+           },
+           {
+               "update", SEPG_DB_TABLE__UPDATE
+           },
+           {
+               "insert", SEPG_DB_TABLE__INSERT
+           },
+           {
+               "delete", SEPG_DB_TABLE__DELETE
+           },
+           {
+               "lock", SEPG_DB_TABLE__LOCK
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_sequence",          SEPG_CLASS_DB_SEQUENCE,
+       "db_sequence", SEPG_CLASS_DB_SEQUENCE,
        {
-           { "create",         SEPG_DB_SEQUENCE__CREATE },
-           { "drop",           SEPG_DB_SEQUENCE__DROP },
-           { "getattr",        SEPG_DB_SEQUENCE__GETATTR },
-           { "setattr",        SEPG_DB_SEQUENCE__SETATTR },
-           { "relabelfrom",    SEPG_DB_SEQUENCE__RELABELFROM },
-           { "relabelto",      SEPG_DB_SEQUENCE__RELABELTO },
-           { "get_value",      SEPG_DB_SEQUENCE__GET_VALUE },
-           { "next_value",     SEPG_DB_SEQUENCE__NEXT_VALUE },
-           { "set_value",      SEPG_DB_SEQUENCE__SET_VALUE },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_SEQUENCE__CREATE
+           },
+           {
+               "drop", SEPG_DB_SEQUENCE__DROP
+           },
+           {
+               "getattr", SEPG_DB_SEQUENCE__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_SEQUENCE__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_SEQUENCE__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_SEQUENCE__RELABELTO
+           },
+           {
+               "get_value", SEPG_DB_SEQUENCE__GET_VALUE
+           },
+           {
+               "next_value", SEPG_DB_SEQUENCE__NEXT_VALUE
+           },
+           {
+               "set_value", SEPG_DB_SEQUENCE__SET_VALUE
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_procedure",         SEPG_CLASS_DB_PROCEDURE,
+       "db_procedure", SEPG_CLASS_DB_PROCEDURE,
        {
-           { "create",         SEPG_DB_PROCEDURE__CREATE },
-           { "drop",           SEPG_DB_PROCEDURE__DROP },
-           { "getattr",        SEPG_DB_PROCEDURE__GETATTR },
-           { "setattr",        SEPG_DB_PROCEDURE__SETATTR },
-           { "relabelfrom",    SEPG_DB_PROCEDURE__RELABELFROM },
-           { "relabelto",      SEPG_DB_PROCEDURE__RELABELTO },
-           { "execute",        SEPG_DB_PROCEDURE__EXECUTE },
-           { "entrypoint",     SEPG_DB_PROCEDURE__ENTRYPOINT },
-           { "install",        SEPG_DB_PROCEDURE__INSTALL },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_PROCEDURE__CREATE
+           },
+           {
+               "drop", SEPG_DB_PROCEDURE__DROP
+           },
+           {
+               "getattr", SEPG_DB_PROCEDURE__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_PROCEDURE__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_PROCEDURE__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_PROCEDURE__RELABELTO
+           },
+           {
+               "execute", SEPG_DB_PROCEDURE__EXECUTE
+           },
+           {
+               "entrypoint", SEPG_DB_PROCEDURE__ENTRYPOINT
+           },
+           {
+               "install", SEPG_DB_PROCEDURE__INSTALL
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_column",            SEPG_CLASS_DB_COLUMN,
+       "db_column", SEPG_CLASS_DB_COLUMN,
        {
-           { "create",         SEPG_DB_COLUMN__CREATE },
-           { "drop",           SEPG_DB_COLUMN__DROP },
-           { "getattr",        SEPG_DB_COLUMN__GETATTR },
-           { "setattr",        SEPG_DB_COLUMN__SETATTR },
-           { "relabelfrom",    SEPG_DB_COLUMN__RELABELFROM },
-           { "relabelto",      SEPG_DB_COLUMN__RELABELTO },
-           { "select",         SEPG_DB_COLUMN__SELECT },
-           { "update",         SEPG_DB_COLUMN__UPDATE },
-           { "insert",         SEPG_DB_COLUMN__INSERT },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_COLUMN__CREATE
+           },
+           {
+               "drop", SEPG_DB_COLUMN__DROP
+           },
+           {
+               "getattr", SEPG_DB_COLUMN__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_COLUMN__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_COLUMN__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_COLUMN__RELABELTO
+           },
+           {
+               "select", SEPG_DB_COLUMN__SELECT
+           },
+           {
+               "update", SEPG_DB_COLUMN__UPDATE
+           },
+           {
+               "insert", SEPG_DB_COLUMN__INSERT
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_tuple",             SEPG_CLASS_DB_TUPLE,
+       "db_tuple", SEPG_CLASS_DB_TUPLE,
        {
-           { "relabelfrom",    SEPG_DB_TUPLE__RELABELFROM },
-           { "relabelto",      SEPG_DB_TUPLE__RELABELTO },
-           { "select",         SEPG_DB_TUPLE__SELECT },
-           { "update",         SEPG_DB_TUPLE__UPDATE },
-           { "insert",         SEPG_DB_TUPLE__INSERT },
-           { "delete",         SEPG_DB_TUPLE__DELETE },
-           { NULL, 0UL },
+           {
+               "relabelfrom", SEPG_DB_TUPLE__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_TUPLE__RELABELTO
+           },
+           {
+               "select", SEPG_DB_TUPLE__SELECT
+           },
+           {
+               "update", SEPG_DB_TUPLE__UPDATE
+           },
+           {
+               "insert", SEPG_DB_TUPLE__INSERT
+           },
+           {
+               "delete", SEPG_DB_TUPLE__DELETE
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_blob",              SEPG_CLASS_DB_BLOB,
+       "db_blob", SEPG_CLASS_DB_BLOB,
        {
-           { "create",         SEPG_DB_BLOB__CREATE },
-           { "drop",           SEPG_DB_BLOB__DROP },
-           { "getattr",        SEPG_DB_BLOB__GETATTR },
-           { "setattr",        SEPG_DB_BLOB__SETATTR },
-           { "relabelfrom",    SEPG_DB_BLOB__RELABELFROM },
-           { "relabelto",      SEPG_DB_BLOB__RELABELTO },
-           { "read",           SEPG_DB_BLOB__READ },
-           { "write",          SEPG_DB_BLOB__WRITE },
-           { "import",         SEPG_DB_BLOB__IMPORT },
-           { "export",         SEPG_DB_BLOB__EXPORT },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_BLOB__CREATE
+           },
+           {
+               "drop", SEPG_DB_BLOB__DROP
+           },
+           {
+               "getattr", SEPG_DB_BLOB__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_BLOB__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_BLOB__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_BLOB__RELABELTO
+           },
+           {
+               "read", SEPG_DB_BLOB__READ
+           },
+           {
+               "write", SEPG_DB_BLOB__WRITE
+           },
+           {
+               "import", SEPG_DB_BLOB__IMPORT
+           },
+           {
+               "export", SEPG_DB_BLOB__EXPORT
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_language",          SEPG_CLASS_DB_LANGUAGE,
+       "db_language", SEPG_CLASS_DB_LANGUAGE,
        {
-           { "create",         SEPG_DB_LANGUAGE__CREATE },
-           { "drop",           SEPG_DB_LANGUAGE__DROP },
-           { "getattr",        SEPG_DB_LANGUAGE__GETATTR },
-           { "setattr",        SEPG_DB_LANGUAGE__SETATTR },
-           { "relabelfrom",    SEPG_DB_LANGUAGE__RELABELFROM },
-           { "relabelto",      SEPG_DB_LANGUAGE__RELABELTO },
-           { "implement",      SEPG_DB_LANGUAGE__IMPLEMENT },
-           { "execute",        SEPG_DB_LANGUAGE__EXECUTE },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_LANGUAGE__CREATE
+           },
+           {
+               "drop", SEPG_DB_LANGUAGE__DROP
+           },
+           {
+               "getattr", SEPG_DB_LANGUAGE__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_LANGUAGE__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_LANGUAGE__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_LANGUAGE__RELABELTO
+           },
+           {
+               "implement", SEPG_DB_LANGUAGE__IMPLEMENT
+           },
+           {
+               "execute", SEPG_DB_LANGUAGE__EXECUTE
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
    {
-       "db_view",              SEPG_CLASS_DB_VIEW,
+       "db_view", SEPG_CLASS_DB_VIEW,
        {
-           { "create",         SEPG_DB_VIEW__CREATE },
-           { "drop",           SEPG_DB_VIEW__DROP },
-           { "getattr",        SEPG_DB_VIEW__GETATTR },
-           { "setattr",        SEPG_DB_VIEW__SETATTR },
-           { "relabelfrom",    SEPG_DB_VIEW__RELABELFROM },
-           { "relabelto",      SEPG_DB_VIEW__RELABELTO },
-           { "expand",         SEPG_DB_VIEW__EXPAND },
-           { NULL, 0UL },
+           {
+               "create", SEPG_DB_VIEW__CREATE
+           },
+           {
+               "drop", SEPG_DB_VIEW__DROP
+           },
+           {
+               "getattr", SEPG_DB_VIEW__GETATTR
+           },
+           {
+               "setattr", SEPG_DB_VIEW__SETATTR
+           },
+           {
+               "relabelfrom", SEPG_DB_VIEW__RELABELFROM
+           },
+           {
+               "relabelto", SEPG_DB_VIEW__RELABELTO
+           },
+           {
+               "expand", SEPG_DB_VIEW__EXPAND
+           },
+           {
+               NULL, 0UL
+           },
        }
    },
 };
@@ -316,7 +624,7 @@ sepgsql_get_mode(void)
 int
 sepgsql_set_mode(int new_mode)
 {
-   int     old_mode = sepgsql_mode;
+   int         old_mode = sepgsql_mode;
 
    sepgsql_mode = new_mode;
 
@@ -367,10 +675,10 @@ sepgsql_audit_log(bool denied,
                  uint32 audited,
                  const char *audit_name)
 {
-   StringInfoData  buf;
-   const char     *class_name;
-   const char     *av_name;
-   int             i;
+   StringInfoData buf;
+   const char *class_name;
+   const char *av_name;
+   int         i;
 
    /* lookup name of the object class */
    Assert(tclass < SEPG_CLASS_MAX);
@@ -380,7 +688,7 @@ sepgsql_audit_log(bool denied,
    initStringInfo(&buf);
    appendStringInfo(&buf, "%s {",
                     (denied ? "denied" : "allowed"));
-   for (i=0; selinux_catalog[tclass].av[i].av_name; i++)
+   for (i = 0; selinux_catalog[tclass].av[i].av_name; i++)
    {
        if (audited & (1UL << i))
        {
@@ -418,14 +726,15 @@ void
 sepgsql_compute_avd(const char *scontext,
                    const char *tcontext,
                    uint16 tclass,
-                   struct av_decision *avd)
+                   struct av_decision * avd)
 {
-   const char         *tclass_name;
-   security_class_t    tclass_ex;
-   struct av_decision  avd_ex;
-   int                 i, deny_unknown = security_deny_unknown();
+   const char *tclass_name;
+   security_class_t tclass_ex;
+   struct av_decision avd_ex;
+   int         i,
+               deny_unknown = security_deny_unknown();
 
-   /* Get external code of the object class*/
+   /* Get external code of the object class */
    Assert(tclass < SEPG_CLASS_MAX);
    Assert(tclass == selinux_catalog[tclass].class_code);
 
@@ -436,14 +745,13 @@ sepgsql_compute_avd(const char *scontext,
    {
        /*
         * If the current security policy does not support permissions
-        * corresponding to database objects, we fill up them with dummy
-        * data.
+        * corresponding to database objects, we fill up them with dummy data.
         * If security_deny_unknown() returns positive value, undefined
         * permissions should be denied. Otherwise, allowed
         */
        avd->allowed = (security_deny_unknown() > 0 ? 0 : ~0);
        avd->auditallow = 0U;
-       avd->auditdeny =  ~0U;
+       avd->auditdeny = ~0U;
        avd->flags = 0;
 
        return;
@@ -453,8 +761,8 @@ sepgsql_compute_avd(const char *scontext,
     * Ask SELinux what is allowed set of permissions on a pair of the
     * security contexts and the given object class.
     */
-   if (security_compute_av_flags_raw((security_context_t)scontext,
-                                     (security_context_t)tcontext,
+   if (security_compute_av_flags_raw((security_context_t) scontext,
+                                     (security_context_t) tcontext,
                                      tclass_ex, 0, &avd_ex) < 0)
        ereport(ERROR,
                (errcode(ERRCODE_INTERNAL_ERROR),
@@ -464,17 +772,17 @@ sepgsql_compute_avd(const char *scontext,
 
    /*
     * SELinux returns its access control decision as a set of permissions
-    * represented in external code which depends on run-time environment.
-    * So, we need to translate it to the internal representation before
-    * returning results for the caller.
+    * represented in external code which depends on run-time environment. So,
+    * we need to translate it to the internal representation before returning
+    * results for the caller.
     */
    memset(avd, 0, sizeof(struct av_decision));
 
-   for (i=0; selinux_catalog[tclass].av[i].av_name; i++)
+   for (i = 0; selinux_catalog[tclass].av[i].av_name; i++)
    {
-       access_vector_t av_code_ex;
-       const char     *av_name = selinux_catalog[tclass].av[i].av_name;
-       uint32          av_code = selinux_catalog[tclass].av[i].av_code;
+       access_vector_t av_code_ex;
+       const char *av_name = selinux_catalog[tclass].av[i].av_name;
+       uint32      av_code = selinux_catalog[tclass].av[i].av_code;
 
        av_code_ex = string_to_av_perm(tclass_ex, av_name);
        if (av_code_ex == 0)
@@ -524,23 +832,23 @@ sepgsql_compute_create(const char *scontext,
                       const char *tcontext,
                       uint16 tclass)
 {
-   security_context_t  ncontext;
-   security_class_t    tclass_ex;
-   const char         *tclass_name;
-   char               *result;
+   security_context_t ncontext;
+   security_class_t tclass_ex;
+   const char *tclass_name;
+   char       *result;
 
-   /* Get external code of the object class*/
+   /* Get external code of the object class */
    Assert(tclass < SEPG_CLASS_MAX);
 
    tclass_name = selinux_catalog[tclass].class_name;
    tclass_ex = string_to_security_class(tclass_name);
 
    /*
-    * Ask SELinux what is the default context for the given object class
-    * on a pair of security contexts
+    * Ask SELinux what is the default context for the given object class on a
+    * pair of security contexts
     */
-   if (security_compute_create_raw((security_context_t)scontext,
-                                   (security_context_t)tcontext,
+   if (security_compute_create_raw((security_context_t) scontext,
+                                   (security_context_t) tcontext,
                                    tclass_ex, &ncontext) < 0)
        ereport(ERROR,
                (errcode(ERRCODE_INTERNAL_ERROR),
@@ -549,8 +857,8 @@ sepgsql_compute_create(const char *scontext,
                        scontext, tcontext, tclass_name)));
 
    /*
-    * libselinux returns malloc()'ed string, so we need to copy it
-    * on the palloc()'ed region.
+    * libselinux returns malloc()'ed string, so we need to copy it on the
+    * palloc()'ed region.
     */
    PG_TRY();
    {
@@ -589,7 +897,7 @@ sepgsql_check_perms(const char *scontext,
                    const char *audit_name,
                    bool abort)
 {
-   struct av_decision  avd;
+   struct av_decision avd;
    uint32      denied;
    uint32      audited;
    bool        result = true;
@@ -602,7 +910,7 @@ sepgsql_check_perms(const char *scontext,
        audited = (denied ? denied : required);
    else
        audited = (denied ? (denied & avd.auditdeny)
-                         : (required & avd.auditallow));
+                  : (required & avd.auditallow));
 
    if (denied &&
        sepgsql_getenforce() > 0 &&
@@ -610,8 +918,8 @@ sepgsql_check_perms(const char *scontext,
        result = false;
 
    /*
-    * It records a security audit for the request, if needed.
-    * But, when SE-PgSQL performs 'internal' mode, it needs to keep silent.
+    * It records a security audit for the request, if needed. But, when
+    * SE-PgSQL performs 'internal' mode, it needs to keep silent.
     */
    if (audited && sepgsql_mode != SEPGSQL_MODE_INTERNAL)
    {
index ba7b2d15975f7f95b0d31fed0ac17f01d08edbe5..71688ab784f7fba46c882b5a3f701937eb6b7d1e 100644 (file)
@@ -218,33 +218,34 @@ extern bool sepgsql_get_debug_audit(void);
 /*
  * selinux.c
  */
-extern bool    sepgsql_is_enabled(void);
+extern bool sepgsql_is_enabled(void);
 extern int sepgsql_get_mode(void);
 extern int sepgsql_set_mode(int new_mode);
 extern bool sepgsql_getenforce(void);
 
 extern void sepgsql_audit_log(bool denied,
-                             const char *scontext,
-                             const char *tcontext,
-                             uint16 tclass,
-                             uint32 audited,
-                             const char *audit_name);
+                 const char *scontext,
+                 const char *tcontext,
+                 uint16 tclass,
+                 uint32 audited,
+                 const char *audit_name);
 
 extern void sepgsql_compute_avd(const char *scontext,
-                               const char *tcontext,
-                               uint16 tclass,
-                               struct av_decision *avd);
+                   const char *tcontext,
+                   uint16 tclass,
+                   struct av_decision * avd);
 
 extern char *sepgsql_compute_create(const char *scontext,
-                                   const char *tcontext,
-                                   uint16 tclass);
+                      const char *tcontext,
+                      uint16 tclass);
 
 extern bool sepgsql_check_perms(const char *scontext,
-                               const char *tcontext,
-                               uint16 tclass,
-                               uint32 required,
-                               const char *audit_name,
-                               bool abort);
+                   const char *tcontext,
+                   uint16 tclass,
+                   uint32 required,
+                   const char *audit_name,
+                   bool abort);
+
 /*
  * label.c
  */
@@ -252,8 +253,8 @@ extern char *sepgsql_get_client_label(void);
 extern char *sepgsql_set_client_label(char *new_label);
 extern char *sepgsql_get_label(Oid relOid, Oid objOid, int32 subId);
 
-extern void     sepgsql_object_relabel(const ObjectAddress *object,
-                                   const char *seclabel);
+extern void sepgsql_object_relabel(const ObjectAddress *object,
+                      const char *seclabel);
 
 extern Datum sepgsql_getcon(PG_FUNCTION_ARGS);
 extern Datum sepgsql_mcstrans_in(PG_FUNCTION_ARGS);
@@ -276,7 +277,7 @@ extern void sepgsql_schema_relabel(Oid namespaceId, const char *seclabel);
  */
 extern void sepgsql_attribute_post_create(Oid relOid, AttrNumber attnum);
 extern void sepgsql_attribute_relabel(Oid relOid, AttrNumber attnum,
-                                     const char *seclabel);
+                         const char *seclabel);
 extern void sepgsql_relation_post_create(Oid relOid);
 extern void sepgsql_relation_relabel(Oid relOid, const char *seclabel);
 
@@ -287,4 +288,4 @@ extern void sepgsql_proc_post_create(Oid functionId);
 extern void sepgsql_proc_relabel(Oid functionId, const char *seclabel);
 extern char *sepgsql_proc_get_domtrans(Oid functionId);
 
-#endif /* SEPGSQL_H */
+#endif   /* SEPGSQL_H */
index f5a0d93ef5fb7a37bc0384d04ff7a5e9929da173..d02560c2981d43b575dc6cbddd35f5dc63b1d952 100644 (file)
@@ -84,7 +84,7 @@ moddatetime(PG_FUNCTION_ARGS)
 
    /*
     * This is where we check to see if the field we are supposed to update
-    * even exists. The above function must return -1 if name not found?
+    * even exists. The above function must return -1 if name not found?
     */
    if (attnum < 0)
        ereport(ERROR,
index e92ab66491f4cc4d9b56cc181d7aa35897655df7..44c600e1348d1227ae50ba8e6ed0a11dd47a8330 100644 (file)
@@ -61,7 +61,7 @@ static text *pgxml_result_to_text(xmlXPathObjectPtr res, xmlChar *toptag,
 static xmlChar *pgxml_texttoxmlchar(text *textstring);
 
 static xmlXPathObjectPtr pgxml_xpath(text *document, xmlChar *xpath,
-                                    xpath_workspace *workspace);
+           xpath_workspace *workspace);
 
 static void cleanup_workspace(xpath_workspace *workspace);
 
@@ -234,7 +234,7 @@ Datum
 xpath_nodeset(PG_FUNCTION_ARGS)
 {
    text       *document = PG_GETARG_TEXT_P(0);
-   text       *xpathsupp = PG_GETARG_TEXT_P(1);    /* XPath expression */
+   text       *xpathsupp = PG_GETARG_TEXT_P(1);        /* XPath expression */
    xmlChar    *toptag = pgxml_texttoxmlchar(PG_GETARG_TEXT_P(2));
    xmlChar    *septag = pgxml_texttoxmlchar(PG_GETARG_TEXT_P(3));
    xmlChar    *xpath;
@@ -267,7 +267,7 @@ Datum
 xpath_list(PG_FUNCTION_ARGS)
 {
    text       *document = PG_GETARG_TEXT_P(0);
-   text       *xpathsupp = PG_GETARG_TEXT_P(1);    /* XPath expression */
+   text       *xpathsupp = PG_GETARG_TEXT_P(1);        /* XPath expression */
    xmlChar    *plainsep = pgxml_texttoxmlchar(PG_GETARG_TEXT_P(2));
    xmlChar    *xpath;
    text       *xpres;
@@ -296,7 +296,7 @@ Datum
 xpath_string(PG_FUNCTION_ARGS)
 {
    text       *document = PG_GETARG_TEXT_P(0);
-   text       *xpathsupp = PG_GETARG_TEXT_P(1);    /* XPath expression */
+   text       *xpathsupp = PG_GETARG_TEXT_P(1);        /* XPath expression */
    xmlChar    *xpath;
    int32       pathsize;
    text       *xpres;
@@ -337,7 +337,7 @@ Datum
 xpath_number(PG_FUNCTION_ARGS)
 {
    text       *document = PG_GETARG_TEXT_P(0);
-   text       *xpathsupp = PG_GETARG_TEXT_P(1);    /* XPath expression */
+   text       *xpathsupp = PG_GETARG_TEXT_P(1);        /* XPath expression */
    xmlChar    *xpath;
    float4      fRes;
    xmlXPathObjectPtr res;
@@ -369,7 +369,7 @@ Datum
 xpath_bool(PG_FUNCTION_ARGS)
 {
    text       *document = PG_GETARG_TEXT_P(0);
-   text       *xpathsupp = PG_GETARG_TEXT_P(1);    /* XPath expression */
+   text       *xpathsupp = PG_GETARG_TEXT_P(1);        /* XPath expression */
    xmlChar    *xpath;
    int         bRes;
    xmlXPathObjectPtr res;
index a90104d17a2dc14aad83a113c49b107babfe81af..f8f7d7263f989d0348735b66d5594cc3506f8103 100644 (file)
@@ -42,7 +42,6 @@ extern void pgxml_parser_init(void);
 
 /* local defs */
 static const char **parse_params(text *paramstr);
-
 #endif   /* USE_LIBXSLT */
 
 
@@ -166,7 +165,7 @@ parse_params(text *paramstr)
        {
            max_params *= 2;
            params = (const char **) repalloc(params,
-                                             (max_params + 1) * sizeof(char *));
+                                         (max_params + 1) * sizeof(char *));
        }
        params[nparams++] = pos;
        pos = strstr(pos, nvsep);
index 6d608fed895162c74eb30c0c8f90db3797c776df..175e6ea2f2e6657e347daabf552fb7d701d02c3c 100644 (file)
@@ -350,7 +350,7 @@ nocachegetattr(HeapTuple tuple,
         *
         * check to see if any preceding bits are null...
         */
-       int byte = attnum >> 3;
+       int         byte = attnum >> 3;
        int         finalbit = attnum & 0x07;
 
        /* check for nulls "before" final bit of last byte */
index 9ea87360f91c764663ad081b953ab69c2a4395d5..85c43199aa78e81ba2334828b0294a42dfda2584 100644 (file)
@@ -237,7 +237,7 @@ nocache_index_getattr(IndexTuple tup,
         * Now check to see if any preceding bits are null...
         */
        {
-           int byte = attnum >> 3;
+           int         byte = attnum >> 3;
            int         finalbit = attnum & 0x07;
 
            /* check for nulls "before" final bit of last byte */
index ce9abae6aa4ac3f740f9e6980391a7cbdf972c98..2de58604eee7810648cfa3b426457e44ba6ce252 100644 (file)
@@ -82,7 +82,8 @@ ginqueryarrayextract(PG_FUNCTION_ARGS)
    ArrayType  *array = PG_GETARG_ARRAYTYPE_P_COPY(0);
    int32      *nkeys = (int32 *) PG_GETARG_POINTER(1);
    StrategyNumber strategy = PG_GETARG_UINT16(2);
-   /* bool   **pmatch = (bool **) PG_GETARG_POINTER(3); */
+
+   /* bool   **pmatch = (bool **) PG_GETARG_POINTER(3); */
    /* Pointer     *extra_data = (Pointer *) PG_GETARG_POINTER(4); */
    bool      **nullFlags = (bool **) PG_GETARG_POINTER(5);
    int32      *searchMode = (int32 *) PG_GETARG_POINTER(6);
@@ -112,7 +113,7 @@ ginqueryarrayextract(PG_FUNCTION_ARGS)
        case GinContainsStrategy:
            if (nelems > 0)
                *searchMode = GIN_SEARCH_MODE_DEFAULT;
-           else                /* everything contains the empty set */
+           else    /* everything contains the empty set */
                *searchMode = GIN_SEARCH_MODE_ALL;
            break;
        case GinContainedStrategy:
@@ -142,10 +143,13 @@ ginarrayconsistent(PG_FUNCTION_ARGS)
 {
    bool       *check = (bool *) PG_GETARG_POINTER(0);
    StrategyNumber strategy = PG_GETARG_UINT16(1);
+
    /* ArrayType  *query = PG_GETARG_ARRAYTYPE_P(2); */
    int32       nkeys = PG_GETARG_INT32(3);
+
    /* Pointer     *extra_data = (Pointer *) PG_GETARG_POINTER(4); */
    bool       *recheck = (bool *) PG_GETARG_POINTER(5);
+
    /* Datum       *queryKeys = (Datum *) PG_GETARG_POINTER(6); */
    bool       *nullFlags = (bool *) PG_GETARG_POINTER(7);
    bool        res;
@@ -190,10 +194,11 @@ ginarrayconsistent(PG_FUNCTION_ARGS)
        case GinEqualStrategy:
            /* we will need recheck */
            *recheck = true;
+
            /*
             * Must have all elements in check[] true; no discrimination
-            * against nulls here.  This is because array_contain_compare
-            * and array_eq handle nulls differently ...
+            * against nulls here.  This is because array_contain_compare and
+            * array_eq handle nulls differently ...
             */
            res = true;
            for (i = 0; i < nkeys; i++)
index f0c8c8e37f6b2a826e8192eb5f81b8400671f5f5..9e5bab194de3bbfbbb2ce1122c555f40518e021a 100644 (file)
@@ -80,8 +80,8 @@ ginAllocEntryAccumulator(void *arg)
    GinEntryAccumulator *ea;
 
    /*
-    * Allocate memory by rather big chunks to decrease overhead.  We have
-    * no need to reclaim RBNodes individually, so this costs nothing.
+    * Allocate memory by rather big chunks to decrease overhead.  We have no
+    * need to reclaim RBNodes individually, so this costs nothing.
     */
    if (accum->entryallocator == NULL || accum->eas_used >= DEF_NENTRY)
    {
@@ -108,7 +108,7 @@ ginInitBA(BuildAccumulator *accum)
                            cmpEntryAccumulator,
                            ginCombineData,
                            ginAllocEntryAccumulator,
-                           NULL,               /* no freefunc needed */
+                           NULL,       /* no freefunc needed */
                            (void *) accum);
 }
 
@@ -145,8 +145,8 @@ ginInsertBAEntry(BuildAccumulator *accum,
    bool        isNew;
 
    /*
-    * For the moment, fill only the fields of eatmp that will be looked at
-    * by cmpEntryAccumulator or ginCombineData.
+    * For the moment, fill only the fields of eatmp that will be looked at by
+    * cmpEntryAccumulator or ginCombineData.
     */
    eatmp.attnum = attnum;
    eatmp.key = key;
index 4a1e75480089f8e0249068b0eea9a53177d30a86..41dbe9fd11ed20894b6821445d226eb7982fd70e 100644 (file)
 int
 ginCompareItemPointers(ItemPointer a, ItemPointer b)
 {
-   BlockNumber ba = GinItemPointerGetBlockNumber(a);
-   BlockNumber bb = GinItemPointerGetBlockNumber(b);
+   BlockNumber ba = GinItemPointerGetBlockNumber(a);
+   BlockNumber bb = GinItemPointerGetBlockNumber(b);
 
    if (ba == bb)
    {
-       OffsetNumber    oa = GinItemPointerGetOffsetNumber(a);
-       OffsetNumber    ob = GinItemPointerGetOffsetNumber(b);
+       OffsetNumber oa = GinItemPointerGetOffsetNumber(a);
+       OffsetNumber ob = GinItemPointerGetOffsetNumber(b);
 
        if (oa == ob)
            return 0;
@@ -383,6 +383,7 @@ dataPlaceToPage(GinBtree btree, Buffer buf, OffsetNumber off, XLogRecData **prda
    Page        page = BufferGetPage(buf);
    int         sizeofitem = GinSizeOfDataPageItem(page);
    int         cnt = 0;
+
    /* these must be static so they can be returned to caller */
    static XLogRecData rdata[3];
    static ginxlogInsert data;
@@ -474,6 +475,7 @@ dataSplitPage(GinBtree btree, Buffer lbuf, Buffer rbuf, OffsetNumber off, XLogRe
    Size        pageSize = PageGetPageSize(lpage);
    Size        freeSpace;
    uint32      nCopied = 1;
+
    /* these must be static so they can be returned to caller */
    static ginxlogSplit data;
    static XLogRecData rdata[4];
index 9749a1be78669a15b259ea083211014b75b883c6..fa134f9fc3f24841ea5b179a7b4e5b59059ab1e2 100644 (file)
@@ -98,11 +98,11 @@ GinFormTuple(GinState *ginstate,
        if (errorTooBig)
            ereport(ERROR,
                    (errcode(ERRCODE_PROGRAM_LIMIT_EXCEEDED),
-                    errmsg("index row size %lu exceeds maximum %lu for index \"%s\"",
-                           (unsigned long) newsize,
-                           (unsigned long) Min(INDEX_SIZE_MASK,
-                                               GinMaxItemSize),
-                           RelationGetRelationName(ginstate->index))));
+           errmsg("index row size %lu exceeds maximum %lu for index \"%s\"",
+                  (unsigned long) newsize,
+                  (unsigned long) Min(INDEX_SIZE_MASK,
+                                      GinMaxItemSize),
+                  RelationGetRelationName(ginstate->index))));
        pfree(itup);
        return NULL;
    }
@@ -164,7 +164,7 @@ GinShortenTuple(IndexTuple itup, uint32 nipd)
  * Form a non-leaf entry tuple by copying the key data from the given tuple,
  * which can be either a leaf or non-leaf entry tuple.
  *
- * Any posting list in the source tuple is not copied.  The specified child
+ * Any posting list in the source tuple is not copied. The specified child
  * block number is inserted into t_tid.
  */
 static IndexTuple
@@ -225,7 +225,7 @@ entryIsMoveRight(GinBtree btree, Page page)
    key = gintuple_get_key(btree->ginstate, itup, &category);
 
    if (ginCompareAttEntries(btree->ginstate,
-                            btree->entryAttnum, btree->entryKey, btree->entryCategory,
+                  btree->entryAttnum, btree->entryKey, btree->entryCategory,
                             attnum, key, category) > 0)
        return TRUE;
 
@@ -488,6 +488,7 @@ entryPlaceToPage(GinBtree btree, Buffer buf, OffsetNumber off, XLogRecData **prd
    Page        page = BufferGetPage(buf);
    OffsetNumber placed;
    int         cnt = 0;
+
    /* these must be static so they can be returned to caller */
    static XLogRecData rdata[3];
    static ginxlogInsert data;
@@ -561,6 +562,7 @@ entrySplitPage(GinBtree btree, Buffer lbuf, Buffer rbuf, OffsetNumber off, XLogR
    Page        lpage = PageGetTempPageCopy(BufferGetPage(lbuf));
    Page        rpage = BufferGetPage(rbuf);
    Size        pageSize = PageGetPageSize(lpage);
+
    /* these must be static so they can be returned to caller */
    static XLogRecData rdata[2];
    static ginxlogSplit data;
index 9960c786c94d3e2fc4806c3c5993281650244aee..82419e37acb278eea849e5fcf12b2e0c90abc0bf 100644 (file)
@@ -88,9 +88,9 @@ writeListPage(Relation index, Buffer buffer,
    GinPageGetOpaque(page)->rightlink = rightlink;
 
    /*
-    * tail page may contain only whole row(s) or final part of row placed
-    * on previous pages (a "row" here meaning all the index tuples generated
-    * for one heap tuple)
+    * tail page may contain only whole row(s) or final part of row placed on
+    * previous pages (a "row" here meaning all the index tuples generated for
+    * one heap tuple)
     */
    if (rightlink == InvalidBlockNumber)
    {
@@ -437,7 +437,7 @@ ginHeapTupleFastInsert(GinState *ginstate, GinTupleCollector *collector)
  * Create temporary index tuples for a single indexable item (one index column
  * for the heap tuple specified by ht_ctid), and append them to the array
  * in *collector.  They will subsequently be written out using
- * ginHeapTupleFastInsert.  Note that to guarantee consistent state, all
+ * ginHeapTupleFastInsert. Note that to guarantee consistent state, all
  * temp tuples for a given heap tuple must be written in one call to
  * ginHeapTupleFastInsert.
  */
@@ -475,8 +475,8 @@ ginHeapTupleFastCollect(GinState *ginstate,
    }
 
    /*
-    * Build an index tuple for each key value, and add to array.  In
-    * pending tuples we just stick the heap TID into t_tid.
+    * Build an index tuple for each key value, and add to array.  In pending
+    * tuples we just stick the heap TID into t_tid.
     */
    for (i = 0; i < nentries; i++)
    {
@@ -665,7 +665,7 @@ processPendingPage(BuildAccumulator *accum, KeyArray *ka,
    {
        IndexTuple  itup = (IndexTuple) PageGetItem(page, PageGetItemId(page, i));
        OffsetNumber curattnum;
-       Datum   curkey;
+       Datum       curkey;
        GinNullCategory curcategory;
 
        /* Check for change of heap TID or attnum */
@@ -830,7 +830,7 @@ ginInsertCleanup(GinState *ginstate,
             */
            ginBeginBAScan(&accum);
            while ((list = ginGetBAEntry(&accum,
-                                        &attnum, &key, &category, &nlist)) != NULL)
+                                 &attnum, &key, &category, &nlist)) != NULL)
            {
                ginEntryInsert(ginstate, attnum, key, category,
                               list, nlist, NULL);
@@ -867,7 +867,7 @@ ginInsertCleanup(GinState *ginstate,
 
                ginBeginBAScan(&accum);
                while ((list = ginGetBAEntry(&accum,
-                                            &attnum, &key, &category, &nlist)) != NULL)
+                                 &attnum, &key, &category, &nlist)) != NULL)
                    ginEntryInsert(ginstate, attnum, key, category,
                                   list, nlist, NULL);
            }
index e07dc0a6ce06454215cd7d6f6b585e968ace03fa..a4771654a6d129439f2bf2a9842de30b7cfbae85 100644 (file)
@@ -40,8 +40,8 @@ static bool
 callConsistentFn(GinState *ginstate, GinScanKey key)
 {
    /*
-    * If we're dealing with a dummy EVERYTHING key, we don't want to call
-    * the consistentFn; just claim it matches.
+    * If we're dealing with a dummy EVERYTHING key, we don't want to call the
+    * consistentFn; just claim it matches.
     */
    if (key->searchMode == GIN_SEARCH_MODE_EVERYTHING)
    {
@@ -174,14 +174,14 @@ scanPostingTree(Relation index, GinScanEntry scanEntry,
 
 /*
  * Collects TIDs into scanEntry->matchBitmap for all heap tuples that
- * match the search entry.  This supports three different match modes:
+ * match the search entry. This supports three different match modes:
  *
  * 1. Partial-match support: scan from current point until the
- *    comparePartialFn says we're done.
+ *   comparePartialFn says we're done.
  * 2. SEARCH_MODE_ALL: scan from current point (which should be first
- *    key for the current attnum) until we hit null items or end of attnum
+ *   key for the current attnum) until we hit null items or end of attnum
  * 3. SEARCH_MODE_EVERYTHING: scan from current point (which should be first
- *    key for the current attnum) until we hit end of attnum
+ *   key for the current attnum) until we hit end of attnum
  *
  * Returns true if done, false if it's necessary to restart scan from scratch
  */
@@ -189,7 +189,7 @@ static bool
 collectMatchBitmap(GinBtreeData *btree, GinBtreeStack *stack,
                   GinScanEntry scanEntry)
 {
-   OffsetNumber    attnum;
+   OffsetNumber attnum;
    Form_pg_attribute attr;
 
    /* Initialize empty bitmap result */
@@ -253,8 +253,8 @@ collectMatchBitmap(GinBtreeData *btree, GinBtreeStack *stack,
            cmp = DatumGetInt32(FunctionCall4(&btree->ginstate->comparePartialFn[attnum - 1],
                                              scanEntry->queryKey,
                                              idatum,
-                                             UInt16GetDatum(scanEntry->strategy),
-                                             PointerGetDatum(scanEntry->extra_data)));
+                                        UInt16GetDatum(scanEntry->strategy),
+                                   PointerGetDatum(scanEntry->extra_data)));
 
            if (cmp > 0)
                return true;
@@ -269,7 +269,7 @@ collectMatchBitmap(GinBtreeData *btree, GinBtreeStack *stack,
            /*
             * In ALL mode, we are not interested in null items, so we can
             * stop if we get to a null-item placeholder (which will be the
-            * last entry for a given attnum).  We do want to include NULL_KEY
+            * last entry for a given attnum).  We do want to include NULL_KEY
             * and EMPTY_ITEM entries, though.
             */
            if (icategory == GIN_CAT_NULL_ITEM)
@@ -287,8 +287,8 @@ collectMatchBitmap(GinBtreeData *btree, GinBtreeStack *stack,
             * We should unlock current page (but not unpin) during tree scan
             * to prevent deadlock with vacuum processes.
             *
-            * We save current entry value (idatum) to be able to re-find
-            * our tuple after re-locking
+            * We save current entry value (idatum) to be able to re-find our
+            * tuple after re-locking
             */
            if (icategory == GIN_CAT_NORM_KEY)
                idatum = datumCopy(idatum, attr->attbyval, attr->attlen);
@@ -442,11 +442,11 @@ restartScanEntry:
            Page        page;
 
            /*
-            * We should unlock entry page before touching posting tree
-            * to prevent deadlocks with vacuum processes. Because entry is
-            * never deleted from page and posting tree is never reduced to
-            * the posting list, we can unlock page after getting BlockNumber
-            * of root of posting tree.
+            * We should unlock entry page before touching posting tree to
+            * prevent deadlocks with vacuum processes. Because entry is never
+            * deleted from page and posting tree is never reduced to the
+            * posting list, we can unlock page after getting BlockNumber of
+            * root of posting tree.
             */
            LockBuffer(stackEntry->buffer, GIN_UNLOCK);
            needUnlock = FALSE;
@@ -596,7 +596,7 @@ entryGetNextItem(GinState *ginstate, GinScanEntry entry)
 
                if (!ItemPointerIsValid(&entry->curItem) ||
                    ginCompareItemPointers(&entry->curItem,
-                                          entry->list + entry->offset - 1) == 0)
+                                      entry->list + entry->offset - 1) == 0)
                {
                    /*
                     * First pages are deleted or empty, or we found exact
@@ -656,10 +656,10 @@ entryGetItem(GinState *ginstate, GinScanEntry entry)
                }
 
                /*
-                * Reset counter to the beginning of entry->matchResult.
-                * Note: entry->offset is still greater than
-                * matchResult->ntuples if matchResult is lossy.  So, on next
-                * call we will get next result from TIDBitmap.
+                * Reset counter to the beginning of entry->matchResult. Note:
+                * entry->offset is still greater than matchResult->ntuples if
+                * matchResult is lossy.  So, on next call we will get next
+                * result from TIDBitmap.
                 */
                entry->offset = 0;
            }
@@ -745,10 +745,10 @@ keyGetItem(GinState *ginstate, MemoryContext tempCtx, GinScanKey key)
    /*
     * Find the minimum of the active entry curItems.
     *
-    * Note: a lossy-page entry is encoded by a ItemPointer with max value
-    * for offset (0xffff), so that it will sort after any exact entries
-    * for the same page.  So we'll prefer to return exact pointers not
-    * lossy pointers, which is good.
+    * Note: a lossy-page entry is encoded by a ItemPointer with max value for
+    * offset (0xffff), so that it will sort after any exact entries for the
+    * same page.  So we'll prefer to return exact pointers not lossy
+    * pointers, which is good.
     */
    ItemPointerSetMax(&minItem);
 
@@ -782,28 +782,27 @@ keyGetItem(GinState *ginstate, MemoryContext tempCtx, GinScanKey key)
 
    /*
     * Lossy-page entries pose a problem, since we don't know the correct
-    * entryRes state to pass to the consistentFn, and we also don't know
-    * what its combining logic will be (could be AND, OR, or even NOT).
-    * If the logic is OR then the consistentFn might succeed for all
-    * items in the lossy page even when none of the other entries match.
+    * entryRes state to pass to the consistentFn, and we also don't know what
+    * its combining logic will be (could be AND, OR, or even NOT). If the
+    * logic is OR then the consistentFn might succeed for all items in the
+    * lossy page even when none of the other entries match.
     *
     * If we have a single lossy-page entry then we check to see if the
-    * consistentFn will succeed with only that entry TRUE.  If so,
-    * we return a lossy-page pointer to indicate that the whole heap
-    * page must be checked.  (On subsequent calls, we'll do nothing until
-    * minItem is past the page altogether, thus ensuring that we never return
-    * both regular and lossy pointers for the same page.)
+    * consistentFn will succeed with only that entry TRUE.  If so, we return
+    * a lossy-page pointer to indicate that the whole heap page must be
+    * checked.  (On subsequent calls, we'll do nothing until minItem is past
+    * the page altogether, thus ensuring that we never return both regular
+    * and lossy pointers for the same page.)
     *
-    * This idea could be generalized to more than one lossy-page entry,
-    * but ideally lossy-page entries should be infrequent so it would
-    * seldom be the case that we have more than one at once.  So it
-    * doesn't seem worth the extra complexity to optimize that case.
-    * If we do find more than one, we just punt and return a lossy-page
-    * pointer always.
+    * This idea could be generalized to more than one lossy-page entry, but
+    * ideally lossy-page entries should be infrequent so it would seldom be
+    * the case that we have more than one at once.  So it doesn't seem worth
+    * the extra complexity to optimize that case. If we do find more than
+    * one, we just punt and return a lossy-page pointer always.
     *
-    * Note that only lossy-page entries pointing to the current item's
-    * page should trigger this processing; we might have future lossy
-    * pages in the entry array, but they aren't relevant yet.
+    * Note that only lossy-page entries pointing to the current item's page
+    * should trigger this processing; we might have future lossy pages in the
+    * entry array, but they aren't relevant yet.
     */
    ItemPointerSetLossyPage(&curPageLossy,
                            GinItemPointerGetBlockNumber(&key->curItem));
@@ -853,15 +852,14 @@ keyGetItem(GinState *ginstate, MemoryContext tempCtx, GinScanKey key)
    }
 
    /*
-    * At this point we know that we don't need to return a lossy
-    * whole-page pointer, but we might have matches for individual exact
-    * item pointers, possibly in combination with a lossy pointer.  Our
-    * strategy if there's a lossy pointer is to try the consistentFn both
-    * ways and return a hit if it accepts either one (forcing the hit to
-    * be marked lossy so it will be rechecked).  An exception is that
-    * we don't need to try it both ways if the lossy pointer is in a
-    * "hidden" entry, because the consistentFn's result can't depend on
-    * that.
+    * At this point we know that we don't need to return a lossy whole-page
+    * pointer, but we might have matches for individual exact item pointers,
+    * possibly in combination with a lossy pointer.  Our strategy if there's
+    * a lossy pointer is to try the consistentFn both ways and return a hit
+    * if it accepts either one (forcing the hit to be marked lossy so it will
+    * be rechecked).  An exception is that we don't need to try it both ways
+    * if the lossy pointer is in a "hidden" entry, because the consistentFn's
+    * result can't depend on that.
     *
     * Prepare entryRes array to be passed to consistentFn.
     */
@@ -960,7 +958,7 @@ scanGetItem(IndexScanDesc scan, ItemPointer advancePast,
            keyGetItem(&so->ginstate, so->tempCtx, key);
 
            if (key->isFinished)
-               return false;       /* finished one of keys */
+               return false;   /* finished one of keys */
 
            if (ginCompareItemPointers(&key->curItem, item) < 0)
                *item = key->curItem;
@@ -975,7 +973,7 @@ scanGetItem(IndexScanDesc scan, ItemPointer advancePast,
         * that exact TID, or a lossy reference to the same page.
         *
         * This logic works only if a keyGetItem stream can never contain both
-        * exact and lossy pointers for the same page.  Else we could have a
+        * exact and lossy pointers for the same page.  Else we could have a
         * case like
         *
         *      stream 1        stream 2
@@ -1011,8 +1009,8 @@ scanGetItem(IndexScanDesc scan, ItemPointer advancePast,
            break;
 
        /*
-        * No hit.  Update myAdvancePast to this TID, so that on the next
-        * pass we'll move to the next possible entry.
+        * No hit.  Update myAdvancePast to this TID, so that on the next pass
+        * we'll move to the next possible entry.
         */
        myAdvancePast = *item;
    }
@@ -1118,8 +1116,8 @@ scanGetCandidate(IndexScanDesc scan, pendingPosition *pos)
 
            /*
             * Now pos->firstOffset points to the first tuple of current heap
-            * row, pos->lastOffset points to the first tuple of next heap
-            * row (or to the end of page)
+            * row, pos->lastOffset points to the first tuple of next heap row
+            * (or to the end of page)
             */
            break;
        }
@@ -1181,7 +1179,7 @@ matchPartialInPendingList(GinState *ginstate, Page page,
                                          entry->queryKey,
                                          datum[off - 1],
                                          UInt16GetDatum(entry->strategy),
-                                         PointerGetDatum(entry->extra_data)));
+                                       PointerGetDatum(entry->extra_data)));
        if (cmp == 0)
            return true;
        else if (cmp > 0)
@@ -1227,8 +1225,8 @@ collectMatchesForHeapRow(IndexScanDesc scan, pendingPosition *pos)
    memset(pos->hasMatchKey, FALSE, so->nkeys);
 
    /*
-    * Outer loop iterates over multiple pending-list pages when a single
-    * heap row has entries spanning those pages.
+    * Outer loop iterates over multiple pending-list pages when a single heap
+    * row has entries spanning those pages.
     */
    for (;;)
    {
@@ -1322,11 +1320,11 @@ collectMatchesForHeapRow(IndexScanDesc scan, pendingPosition *pos)
                    if (res == 0)
                    {
                        /*
-                        * Found exact match (there can be only one, except
-                        * in EMPTY_QUERY mode).
+                        * Found exact match (there can be only one, except in
+                        * EMPTY_QUERY mode).
                         *
-                        * If doing partial match, scan forward from
-                        * here to end of page to check for matches.
+                        * If doing partial match, scan forward from here to
+                        * end of page to check for matches.
                         *
                         * See comment above about tuple's ordering.
                         */
@@ -1355,13 +1353,12 @@ collectMatchesForHeapRow(IndexScanDesc scan, pendingPosition *pos)
                if (StopLow >= StopHigh && entry->isPartialMatch)
                {
                    /*
-                    * No exact match on this page.  If doing partial
-                    * match, scan from the first tuple greater than
-                    * target value to end of page.  Note that since we
-                    * don't remember whether the comparePartialFn told us
-                    * to stop early on a previous page, we will uselessly
-                    * apply comparePartialFn to the first tuple on each
-                    * subsequent page.
+                    * No exact match on this page.  If doing partial match,
+                    * scan from the first tuple greater than target value to
+                    * end of page.  Note that since we don't remember whether
+                    * the comparePartialFn told us to stop early on a
+                    * previous page, we will uselessly apply comparePartialFn
+                    * to the first tuple on each subsequent page.
                     */
                    key->entryRes[j] =
                        matchPartialInPendingList(&so->ginstate,
index af5068906fb89c4e3ed40187bab121079e45ece3..3e32af94a96d34369487f014df68559a08c299d0 100644 (file)
@@ -97,7 +97,7 @@ createPostingTree(Relation index, ItemPointerData *items, uint32 nitems)
  * Adds array of item pointers to tuple's posting list, or
  * creates posting tree and tuple pointing to tree in case
  * of not enough space.  Max size of tuple is defined in
- * GinFormTuple().  Returns a new, modified index tuple.
+ * GinFormTuple(). Returns a new, modified index tuple.
  * items[] must be in sorted order with no duplicates.
  */
 static IndexTuple
@@ -195,14 +195,14 @@ buildFreshLeafTuple(GinState *ginstate,
        BlockNumber postingRoot;
 
        /*
-        * Build posting-tree-only result tuple.  We do this first so as
-        * to fail quickly if the key is too big.
+        * Build posting-tree-only result tuple.  We do this first so as to
+        * fail quickly if the key is too big.
         */
        res = GinFormTuple(ginstate, attnum, key, category, NULL, 0, true);
 
        /*
-        * Initialize posting tree with as many TIDs as will fit on the
-        * first page.
+        * Initialize posting tree with as many TIDs as will fit on the first
+        * page.
         */
        postingRoot = createPostingTree(ginstate->index,
                                        items,
@@ -361,7 +361,7 @@ ginBuildCallback(Relation index, HeapTuple htup, Datum *values,
 
        ginBeginBAScan(&buildstate->accum);
        while ((list = ginGetBAEntry(&buildstate->accum,
-                                    &attnum, &key, &category, &nlist)) != NULL)
+                                 &attnum, &key, &category, &nlist)) != NULL)
        {
            /* there could be many entries, so be willing to abort here */
            CHECK_FOR_INTERRUPTS();
index 25f60e15a0d438a55eea244ba145cd17b044b54e..37b08c0df62a388c87b83bcafa4b342828f4f5b7 100644 (file)
@@ -199,7 +199,7 @@ ginFillScanKey(GinScanOpaque so, OffsetNumber attnum,
                    break;
                default:
                    elog(ERROR, "unexpected searchMode: %d", searchMode);
-                   queryCategory = 0;      /* keep compiler quiet */
+                   queryCategory = 0;  /* keep compiler quiet */
                    break;
            }
            isPartialMatch = false;
@@ -294,8 +294,8 @@ ginNewScanKey(IndexScanDesc scan)
        int32       searchMode = GIN_SEARCH_MODE_DEFAULT;
 
        /*
-        * We assume that GIN-indexable operators are strict, so a null
-        * query argument means an unsatisfiable query.
+        * We assume that GIN-indexable operators are strict, so a null query
+        * argument means an unsatisfiable query.
         */
        if (skey->sk_flags & SK_ISNULL)
        {
@@ -315,8 +315,8 @@ ginNewScanKey(IndexScanDesc scan)
                                          PointerGetDatum(&searchMode)));
 
        /*
-        * If bogus searchMode is returned, treat as GIN_SEARCH_MODE_ALL;
-        * note in particular we don't allow extractQueryFn to select
+        * If bogus searchMode is returned, treat as GIN_SEARCH_MODE_ALL; note
+        * in particular we don't allow extractQueryFn to select
         * GIN_SEARCH_MODE_EVERYTHING.
         */
        if (searchMode < GIN_SEARCH_MODE_DEFAULT ||
@@ -344,20 +344,20 @@ ginNewScanKey(IndexScanDesc scan)
         * If the extractQueryFn didn't create a nullFlags array, create one,
         * assuming that everything's non-null.  Otherwise, run through the
         * array and make sure each value is exactly 0 or 1; this ensures
-        * binary compatibility with the GinNullCategory representation.
-        * While at it, detect whether any null keys are present.
+        * binary compatibility with the GinNullCategory representation. While
+        * at it, detect whether any null keys are present.
         */
        if (nullFlags == NULL)
            nullFlags = (bool *) palloc0(nQueryValues * sizeof(bool));
        else
        {
-           int32 j;
+           int32       j;
 
            for (j = 0; j < nQueryValues; j++)
            {
                if (nullFlags[j])
                {
-                   nullFlags[j] = true;    /* not any other nonzero value */
+                   nullFlags[j] = true;        /* not any other nonzero value */
                    hasNullQuery = true;
                }
            }
@@ -387,11 +387,11 @@ ginNewScanKey(IndexScanDesc scan)
    /*
     * If the index is version 0, it may be missing null and placeholder
     * entries, which would render searches for nulls and full-index scans
-    * unreliable.  Throw an error if so.
+    * unreliable.  Throw an error if so.
     */
    if (hasNullQuery && !so->isVoidRes)
    {
-       GinStatsData   ginStats;
+       GinStatsData ginStats;
 
        ginGetStats(scan->indexRelation, &ginStats);
        if (ginStats.ginVersion < 1)
@@ -410,6 +410,7 @@ ginrescan(PG_FUNCTION_ARGS)
 {
    IndexScanDesc scan = (IndexScanDesc) PG_GETARG_POINTER(0);
    ScanKey     scankey = (ScanKey) PG_GETARG_POINTER(1);
+
    /* remaining arguments are ignored */
    GinScanOpaque so = (GinScanOpaque) scan->opaque;
 
index 392c12d47abfa740cbfe6436f5bc652cd0c49fcb..716cf3a734865d7ee3502f6377c12a5f50c9c1c3 100644 (file)
@@ -70,7 +70,7 @@ initGinState(GinState *state, Relation index)
         * However, we may have a collatable storage type for a noncollatable
         * indexed data type (for instance, hstore uses text index entries).
         * If there's no index collation then specify default collation in
-        * case the comparison function needs one.  This is harmless if the
+        * case the comparison function needs one.  This is harmless if the
         * comparison function doesn't care about collation, so we just do it
         * unconditionally.  (We could alternatively call get_typcollation,
         * but that seems like expensive overkill --- there aren't going to be
@@ -359,9 +359,9 @@ cmpEntries(const void *a, const void *b, void *arg)
                                          aa->datum, bb->datum));
 
    /*
-    * Detect if we have any duplicates.  If there are equal keys, qsort
-    * must compare them at some point, else it wouldn't know whether one
-    * should go before or after the other.
+    * Detect if we have any duplicates.  If there are equal keys, qsort must
+    * compare them at some point, else it wouldn't know whether one should go
+    * before or after the other.
     */
    if (res == 0)
        data->haveDups = true;
@@ -422,9 +422,9 @@ ginExtractEntries(GinState *ginstate, OffsetNumber attnum,
 
    /*
     * If the extractValueFn didn't create a nullFlags array, create one,
-    * assuming that everything's non-null.  Otherwise, run through the
-    * array and make sure each value is exactly 0 or 1; this ensures
-    * binary compatibility with the GinNullCategory representation.
+    * assuming that everything's non-null.  Otherwise, run through the array
+    * and make sure each value is exactly 0 or 1; this ensures binary
+    * compatibility with the GinNullCategory representation.
     */
    if (nullFlags == NULL)
        nullFlags = (bool *) palloc0(*nentries * sizeof(bool));
@@ -440,8 +440,8 @@ ginExtractEntries(GinState *ginstate, OffsetNumber attnum,
     * If there's more than one key, sort and unique-ify.
     *
     * XXX Using qsort here is notationally painful, and the overhead is
-    * pretty bad too.  For small numbers of keys it'd likely be better to
-    * use a simple insertion sort.
+    * pretty bad too.  For small numbers of keys it'd likely be better to use
+    * a simple insertion sort.
     */
    if (*nentries > 1)
    {
@@ -470,7 +470,7 @@ ginExtractEntries(GinState *ginstate, OffsetNumber attnum,
            j = 1;
            for (i = 1; i < *nentries; i++)
            {
-               if (cmpEntries(&keydata[i-1], &keydata[i], &arg) != 0)
+               if (cmpEntries(&keydata[i - 1], &keydata[i], &arg) != 0)
                {
                    entries[j] = keydata[i].datum;
                    nullFlags[j] = keydata[i].isnull;
@@ -533,9 +533,9 @@ ginoptions(PG_FUNCTION_ARGS)
 void
 ginGetStats(Relation index, GinStatsData *stats)
 {
-   Buffer          metabuffer;
-   Page            metapage;
-   GinMetaPageData *metadata;
+   Buffer      metabuffer;
+   Page        metapage;
+   GinMetaPageData *metadata;
 
    metabuffer = ReadBuffer(index, GIN_METAPAGE_BLKNO);
    LockBuffer(metabuffer, GIN_SHARE);
@@ -560,9 +560,9 @@ ginGetStats(Relation index, GinStatsData *stats)
 void
 ginUpdateStats(Relation index, const GinStatsData *stats)
 {
-   Buffer          metabuffer;
-   Page            metapage;
-   GinMetaPageData *metadata;
+   Buffer      metabuffer;
+   Page        metapage;
+   GinMetaPageData *metadata;
 
    metabuffer = ReadBuffer(index, GIN_METAPAGE_BLKNO);
    LockBuffer(metabuffer, GIN_EXCLUSIVE);
@@ -580,9 +580,9 @@ ginUpdateStats(Relation index, const GinStatsData *stats)
 
    if (RelationNeedsWAL(index))
    {
-       XLogRecPtr          recptr;
-       ginxlogUpdateMeta   data;
-       XLogRecData         rdata;
+       XLogRecPtr  recptr;
+       ginxlogUpdateMeta data;
+       XLogRecData rdata;
 
        data.node = index->rd_node;
        data.ntuples = 0;
index 41ad382df0cd60362e7b7d5d1ba4bff3fa91c7a9..79c54f16b8dce67b3fd23462052b37d6562aea9b 100644 (file)
@@ -783,7 +783,7 @@ ginvacuumcleanup(PG_FUNCTION_ARGS)
        {
            idxStat.nEntryPages++;
 
-           if ( GinPageIsLeaf(page) )
+           if (GinPageIsLeaf(page))
                idxStat.nEntries += PageGetMaxOffsetNumber(page);
        }
 
index e410959b851bd8ac528253c077f104e1d82d3d0f..c954bcb12fc8d82bc0ecbf9dd3a09b64b95dc14f 100644 (file)
@@ -388,7 +388,7 @@ ginRedoVacuumPage(XLogRecPtr lsn, XLogRecord *record)
        else
        {
            OffsetNumber i,
-               *tod;
+                      *tod;
            IndexTuple  itup = (IndexTuple) (XLogRecGetData(record) + sizeof(ginxlogVacuumPage));
 
            tod = (OffsetNumber *) palloc(sizeof(OffsetNumber) * PageGetMaxOffsetNumber(page));
@@ -513,10 +513,10 @@ ginRedoUpdateMetapage(XLogRecPtr lsn, XLogRecord *record)
                if (!XLByteLE(lsn, PageGetLSN(page)))
                {
                    OffsetNumber l,
-                       off = (PageIsEmpty(page)) ? FirstOffsetNumber :
-                       OffsetNumberNext(PageGetMaxOffsetNumber(page));
+                               off = (PageIsEmpty(page)) ? FirstOffsetNumber :
+                   OffsetNumberNext(PageGetMaxOffsetNumber(page));
                    int         i,
-                       tupsize;
+                               tupsize;
                    IndexTuple  tuples = (IndexTuple) (XLogRecGetData(record) + sizeof(ginxlogUpdateMeta));
 
                    for (i = 0; i < data->ntuples; i++)
index 9529413e80e970078796564b8d9b413dbac16213..fae3464600a5a87dd31c7c3dcf44b3bdcd0276b1 100644 (file)
@@ -34,8 +34,8 @@ typedef struct
 /* A List of these is used represent a split-in-progress. */
 typedef struct
 {
-   Buffer      buf;        /* the split page "half" */
-   IndexTuple  downlink;   /* downlink for this half. */
+   Buffer      buf;            /* the split page "half" */
+   IndexTuple  downlink;       /* downlink for this half. */
 } GISTPageSplitInfo;
 
 /* non-export function prototypes */
@@ -306,13 +306,13 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
    bool        is_split;
 
    /*
-    * Refuse to modify a page that's incompletely split. This should
-    * not happen because we finish any incomplete splits while we walk
-    * down the tree. However, it's remotely possible that another
-    * concurrent inserter splits a parent page, and errors out before
-    * completing the split. We will just throw an error in that case,
-    * and leave any split we had in progress unfinished too. The next
-    * insert that comes along will clean up the mess.
+    * Refuse to modify a page that's incompletely split. This should not
+    * happen because we finish any incomplete splits while we walk down the
+    * tree. However, it's remotely possible that another concurrent inserter
+    * splits a parent page, and errors out before completing the split. We
+    * will just throw an error in that case, and leave any split we had in
+    * progress unfinished too. The next insert that comes along will clean up
+    * the mess.
     */
    if (GistFollowRight(page))
        elog(ERROR, "concurrent GiST page split was incomplete");
@@ -338,7 +338,7 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
        SplitedPageLayout *dist = NULL,
                   *ptr;
        BlockNumber oldrlink = InvalidBlockNumber;
-       GistNSN     oldnsn = { 0, 0 };
+       GistNSN     oldnsn = {0, 0};
        SplitedPageLayout rootpg;
        BlockNumber blkno = BufferGetBlockNumber(buffer);
        bool        is_rootsplit;
@@ -364,8 +364,8 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
 
        /*
         * Set up pages to work with. Allocate new buffers for all but the
-        * leftmost page. The original page becomes the new leftmost page,
-        * and is just replaced with the new contents.
+        * leftmost page. The original page becomes the new leftmost page, and
+        * is just replaced with the new contents.
         *
         * For a root-split, allocate new buffers for all child pages, the
         * original page is overwritten with new root page containing
@@ -414,8 +414,8 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
        if (is_rootsplit)
        {
            IndexTuple *downlinks;
-           int ndownlinks = 0;
-           int i;
+           int         ndownlinks = 0;
+           int         i;
 
            rootpg.buffer = buffer;
            rootpg.page = PageGetTempPageCopySpecial(BufferGetPage(rootpg.buffer));
@@ -443,6 +443,7 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
            for (ptr = dist; ptr; ptr = ptr->next)
            {
                GISTPageSplitInfo *si = palloc(sizeof(GISTPageSplitInfo));
+
                si->buf = ptr->buffer;
                si->downlink = ptr->itup;
                *splitinfo = lappend(*splitinfo, si);
@@ -455,7 +456,8 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
         */
        for (ptr = dist; ptr; ptr = ptr->next)
        {
-           char *data = (char *) (ptr->list);
+           char       *data = (char *) (ptr->list);
+
            for (i = 0; i < ptr->block.num; i++)
            {
                if (PageAddItem(ptr->page, (Item) data, IndexTupleSize((IndexTuple) data), i + FirstOffsetNumber, false, false) == InvalidOffsetNumber)
@@ -495,8 +497,8 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
            MarkBufferDirty(leftchildbuf);
 
        /*
-        * The first page in the chain was a temporary working copy meant
-        * to replace the old page. Copy it over the old page.
+        * The first page in the chain was a temporary working copy meant to
+        * replace the old page. Copy it over the old page.
         */
        PageRestoreTempPage(dist->page, BufferGetPage(dist->buffer));
        dist->page = BufferGetPage(dist->buffer);
@@ -518,8 +520,8 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
         * Return the new child buffers to the caller.
         *
         * If this was a root split, we've already inserted the downlink
-        * pointers, in the form of a new root page. Therefore we can
-        * release all the new buffers, and keep just the root page locked.
+        * pointers, in the form of a new root page. Therefore we can release
+        * all the new buffers, and keep just the root page locked.
         */
        if (is_rootsplit)
        {
@@ -572,20 +574,20 @@ gistplacetopage(GISTInsertState *state, GISTSTATE *giststate,
 
    /*
     * If we inserted the downlink for a child page, set NSN and clear
-    * F_FOLLOW_RIGHT flag on the left child, so that concurrent scans know
-    * to follow the rightlink if and only if they looked at the parent page
+    * F_FOLLOW_RIGHT flag on the left child, so that concurrent scans know to
+    * follow the rightlink if and only if they looked at the parent page
     * before we inserted the downlink.
     *
     * Note that we do this *after* writing the WAL record. That means that
-    * the possible full page image in the WAL record does not include
-    * these changes, and they must be replayed even if the page is restored
-    * from the full page image. There's a chicken-and-egg problem: if we
-    * updated the child pages first, we wouldn't know the recptr of the WAL
-    * record we're about to write.
+    * the possible full page image in the WAL record does not include these
+    * changes, and they must be replayed even if the page is restored from
+    * the full page image. There's a chicken-and-egg problem: if we updated
+    * the child pages first, we wouldn't know the recptr of the WAL record
+    * we're about to write.
     */
    if (BufferIsValid(leftchildbuf))
    {
-       Page leftpg = BufferGetPage(leftchildbuf);
+       Page        leftpg = BufferGetPage(leftchildbuf);
 
        GistPageGetOpaque(leftpg)->nsn = recptr;
        GistClearFollowRight(leftpg);
@@ -636,8 +638,8 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
            stack->buffer = ReadBuffer(state.r, stack->blkno);
 
        /*
-        * Be optimistic and grab shared lock first. Swap it for an
-        * exclusive lock later if we need to update the page.
+        * Be optimistic and grab shared lock first. Swap it for an exclusive
+        * lock later if we need to update the page.
         */
        if (!xlocked)
        {
@@ -650,9 +652,9 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
        Assert(!RelationNeedsWAL(state.r) || !XLogRecPtrIsInvalid(stack->lsn));
 
        /*
-        * If this page was split but the downlink was never inserted to
-        * the parent because the inserting backend crashed before doing
-        * that, fix that now.
+        * If this page was split but the downlink was never inserted to the
+        * parent because the inserting backend crashed before doing that, fix
+        * that now.
         */
        if (GistFollowRight(stack->page))
        {
@@ -680,8 +682,8 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
            /*
             * Concurrent split detected. There's no guarantee that the
             * downlink for this page is consistent with the tuple we're
-            * inserting anymore, so go back to parent and rechoose the
-            * best child.
+            * inserting anymore, so go back to parent and rechoose the best
+            * child.
             */
            UnlockReleaseBuffer(stack->buffer);
            xlocked = false;
@@ -696,7 +698,7 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
             * Find the child node that has the minimum insertion penalty.
             */
            BlockNumber childblkno;
-           IndexTuple newtup;
+           IndexTuple  newtup;
            GISTInsertStack *item;
 
            stack->childoffnum = gistchoose(state.r, stack->page, itup, giststate);
@@ -722,8 +724,8 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
            if (newtup)
            {
                /*
-                * Swap shared lock for an exclusive one. Beware, the page
-                * may change while we unlock/lock the page...
+                * Swap shared lock for an exclusive one. Beware, the page may
+                * change while we unlock/lock the page...
                 */
                if (!xlocked)
                {
@@ -738,6 +740,7 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
                        continue;
                    }
                }
+
                /*
                 * Update the tuple.
                 *
@@ -752,8 +755,8 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
                                     stack->childoffnum, InvalidBuffer))
                {
                    /*
-                    * If this was a root split, the root page continues to
-                    * be the parent and the updated tuple went to one of the
+                    * If this was a root split, the root page continues to be
+                    * the parent and the updated tuple went to one of the
                     * child pages, so we just need to retry from the root
                     * page.
                     */
@@ -779,13 +782,13 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
        {
            /*
             * Leaf page. Insert the new key. We've already updated all the
-            * parents on the way down, but we might have to split the page
-            * if it doesn't fit. gistinserthere() will take care of that.
+            * parents on the way down, but we might have to split the page if
+            * it doesn't fit. gistinserthere() will take care of that.
             */
 
            /*
-            * Swap shared lock for an exclusive one. Be careful, the page
-            * may change while we unlock/lock the page...
+            * Swap shared lock for an exclusive one. Be careful, the page may
+            * change while we unlock/lock the page...
             */
            if (!xlocked)
            {
@@ -798,8 +801,8 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace, GISTSTATE *giststate)
                if (stack->blkno == GIST_ROOT_BLKNO)
                {
                    /*
-                    * the only page that can become inner instead of leaf
-                    * is the root page, so for root we should recheck it
+                    * the only page that can become inner instead of leaf is
+                    * the root page, so for root we should recheck it
                     */
                    if (!GistPageIsLeaf(stack->page))
                    {
@@ -1059,21 +1062,23 @@ static IndexTuple
 gistformdownlink(Relation rel, Buffer buf, GISTSTATE *giststate,
                 GISTInsertStack *stack)
 {
-   Page page = BufferGetPage(buf);
+   Page        page = BufferGetPage(buf);
    OffsetNumber maxoff;
    OffsetNumber offset;
-   IndexTuple downlink = NULL;
+   IndexTuple  downlink = NULL;
 
    maxoff = PageGetMaxOffsetNumber(page);
    for (offset = FirstOffsetNumber; offset <= maxoff; offset = OffsetNumberNext(offset))
    {
        IndexTuple  ituple = (IndexTuple)
-           PageGetItem(page, PageGetItemId(page, offset));
+       PageGetItem(page, PageGetItemId(page, offset));
+
        if (downlink == NULL)
            downlink = CopyIndexTuple(ituple);
        else
        {
-           IndexTuple newdownlink;
+           IndexTuple  newdownlink;
+
            newdownlink = gistgetadjusted(rel, downlink, ituple,
                                          giststate);
            if (newdownlink)
@@ -1082,19 +1087,18 @@ gistformdownlink(Relation rel, Buffer buf, GISTSTATE *giststate,
    }
 
    /*
-    * If the page is completely empty, we can't form a meaningful
-    * downlink for it. But we have to insert a downlink for the page.
-    * Any key will do, as long as its consistent with the downlink of
-    * parent page, so that we can legally insert it to the parent.
-    * A minimal one that matches as few scans as possible would be best,
-    * to keep scans from doing useless work, but we don't know how to
-    * construct that. So we just use the downlink of the original page
-    * that was split - that's as far from optimal as it can get but will
-    * do..
+    * If the page is completely empty, we can't form a meaningful downlink
+    * for it. But we have to insert a downlink for the page. Any key will do,
+    * as long as its consistent with the downlink of parent page, so that we
+    * can legally insert it to the parent. A minimal one that matches as few
+    * scans as possible would be best, to keep scans from doing useless work,
+    * but we don't know how to construct that. So we just use the downlink of
+    * the original page that was split - that's as far from optimal as it can
+    * get but will do..
     */
    if (!downlink)
    {
-       ItemId iid;
+       ItemId      iid;
 
        LockBuffer(stack->parent->buffer, GIST_EXCLUSIVE);
        gistFindCorrectParent(rel, stack);
@@ -1131,13 +1135,13 @@ gistfixsplit(GISTInsertState *state, GISTSTATE *giststate)
    buf = stack->buffer;
 
    /*
-    * Read the chain of split pages, following the rightlinks. Construct
-    * downlink tuple for each page.
+    * Read the chain of split pages, following the rightlinks. Construct a
+    * downlink tuple for each page.
     */
    for (;;)
    {
        GISTPageSplitInfo *si = palloc(sizeof(GISTPageSplitInfo));
-       IndexTuple downlink;
+       IndexTuple  downlink;
 
        page = BufferGetPage(buf);
 
@@ -1182,8 +1186,8 @@ gistinserttuples(GISTInsertState *state, GISTInsertStack *stack,
                 IndexTuple *tuples, int ntup, OffsetNumber oldoffnum,
                 Buffer leftchild)
 {
-   List *splitinfo;
-   bool is_split;
+   List       *splitinfo;
+   bool        is_split;
 
    is_split = gistplacetopage(state, giststate, stack->buffer,
                               tuples, ntup, oldoffnum,
@@ -1204,21 +1208,21 @@ static void
 gistfinishsplit(GISTInsertState *state, GISTInsertStack *stack,
                GISTSTATE *giststate, List *splitinfo)
 {
-   ListCell *lc;
-   List *reversed;
+   ListCell   *lc;
+   List       *reversed;
    GISTPageSplitInfo *right;
    GISTPageSplitInfo *left;
-   IndexTuple tuples[2];
+   IndexTuple  tuples[2];
 
    /* A split always contains at least two halves */
    Assert(list_length(splitinfo) >= 2);
 
    /*
-    * We need to insert downlinks for each new page, and update the
-    * downlink for the original (leftmost) page in the split. Begin at
-    * the rightmost page, inserting one downlink at a time until there's
-    * only two pages left. Finally insert the downlink for the last new
-    * page and update the downlink for the original page as one operation.
+    * We need to insert downlinks for each new page, and update the downlink
+    * for the original (leftmost) page in the split. Begin at the rightmost
+    * page, inserting one downlink at a time until there's only two pages
+    * left. Finally insert the downlink for the last new page and update the
+    * downlink for the original page as one operation.
     */
 
    /* for convenience, create a copy of the list in reverse order */
@@ -1231,7 +1235,7 @@ gistfinishsplit(GISTInsertState *state, GISTInsertStack *stack,
    LockBuffer(stack->parent->buffer, GIST_EXCLUSIVE);
    gistFindCorrectParent(state->r, stack);
 
-   while(list_length(reversed) > 2)
+   while (list_length(reversed) > 2)
    {
        right = (GISTPageSplitInfo *) linitial(reversed);
        left = (GISTPageSplitInfo *) lsecond(reversed);
@@ -1386,7 +1390,7 @@ initGISTstate(GISTSTATE *giststate, Relation index)
        /* opclasses are not required to provide a Distance method */
        if (OidIsValid(index_getprocid(index, i + 1, GIST_DISTANCE_PROC)))
            fmgr_info_copy(&(giststate->distanceFn[i]),
-                          index_getprocinfo(index, i + 1, GIST_DISTANCE_PROC),
+                        index_getprocinfo(index, i + 1, GIST_DISTANCE_PROC),
                           CurrentMemoryContext);
        else
            giststate->distanceFn[i].fn_oid = InvalidOid;
index 8355081553d740410fca58c7c154f77436b8cc5c..e4488a925de687e153677be332fd217d522c3415 100644 (file)
@@ -32,7 +32,7 @@
  *
  * On success return for a heap tuple, *recheck_p is set to indicate
  * whether recheck is needed.  We recheck if any of the consistent() functions
- * request it.  recheck is not interesting when examining a non-leaf entry,
+ * request it. recheck is not interesting when examining a non-leaf entry,
  * since we must visit the lower index page if there's any doubt.
  *
  * If we are doing an ordered scan, so->distances[] is filled with distance
@@ -62,15 +62,15 @@ gistindex_keytest(IndexScanDesc scan,
    *recheck_p = false;
 
    /*
-    * If it's a leftover invalid tuple from pre-9.1, treat it as a match
-    * with minimum possible distances.  This means we'll always follow it
-    * to the referenced page.
+    * If it's a leftover invalid tuple from pre-9.1, treat it as a match with
+    * minimum possible distances.  This means we'll always follow it to the
+    * referenced page.
     */
    if (GistTupleIsInvalid(tuple))
    {
-       int     i;
+       int         i;
 
-       if (GistPageIsLeaf(page))           /* shouldn't happen */
+       if (GistPageIsLeaf(page))       /* shouldn't happen */
            elog(ERROR, "invalid GIST tuple found on leaf page");
        for (i = 0; i < scan->numberOfOrderBys; i++)
            so->distances[i] = -get_float8_infinity();
@@ -191,8 +191,8 @@ gistindex_keytest(IndexScanDesc scan,
             * always be zero, but might as well pass it for possible future
             * use.)
             *
-            * Note that Distance functions don't get a recheck argument.
-            * We can't tolerate lossy distance calculations on leaf tuples;
+            * Note that Distance functions don't get a recheck argument. We
+            * can't tolerate lossy distance calculations on leaf tuples;
             * there is no opportunity to re-sort the tuples afterwards.
             */
            dist = FunctionCall4(&key->sk_func,
@@ -223,7 +223,7 @@ gistindex_keytest(IndexScanDesc scan,
  * ntids: if not NULL, gistgetbitmap's output tuple counter
  *
  * If tbm/ntids aren't NULL, we are doing an amgetbitmap scan, and heap
- * tuples should be reported directly into the bitmap.  If they are NULL,
+ * tuples should be reported directly into the bitmap. If they are NULL,
  * we're doing a plain or ordered indexscan.  For a plain indexscan, heap
  * tuple TIDs are returned into so->pageData[].  For an ordered indexscan,
  * heap tuple TIDs are pushed into individual search queue items.
@@ -525,8 +525,8 @@ gistgettuple(PG_FUNCTION_ARGS)
                /*
                 * While scanning a leaf page, ItemPointers of matching heap
                 * tuples are stored in so->pageData.  If there are any on
-                * this page, we fall out of the inner "do" and loop around
-                * to return them.
+                * this page, we fall out of the inner "do" and loop around to
+                * return them.
                 */
                gistScanPage(scan, item, so->curTreeItem->distances, NULL, NULL);
 
index 86a5d90f95528ef5a094873de447b8f4f84d927f..43c4b1251b1301b0da1eec863fcc7b4160653179 100644 (file)
@@ -904,7 +904,7 @@ gist_point_compress(PG_FUNCTION_ARGS)
    PG_RETURN_POINTER(entry);
 }
 
-#define    point_point_distance(p1,p2) \
+#define point_point_distance(p1,p2) \
    DatumGetFloat8(DirectFunctionCall2(point_distance, \
                                       PointPGetDatum(p1), PointPGetDatum(p2)))
 
@@ -949,8 +949,8 @@ computeDistance(bool isLeaf, BOX *box, Point *point)
    else
    {
        /* closest point will be a vertex */
-       Point   p;
-       double  subresult;
+       Point       p;
+       double      subresult;
 
        result = point_point_distance(point, &box->low);
 
index 0a125e772d077cbc9531f2711a89c2ebb9f725e7..67308ed37e5cb3370da15a89b001c7e032f35bfb 100644 (file)
@@ -57,9 +57,9 @@ GISTSearchTreeItemCombiner(RBNode *existing, const RBNode *newrb, void *arg)
 
    /*
     * If new item is heap tuple, it goes to front of chain; otherwise insert
-    * it before the first index-page item, so that index pages are visited
-    * in LIFO order, ensuring depth-first search of index pages.  See
-    * comments in gist_private.h.
+    * it before the first index-page item, so that index pages are visited in
+    * LIFO order, ensuring depth-first search of index pages.  See comments
+    * in gist_private.h.
     */
    if (GISTSearchItemIsHeap(*newitem))
    {
@@ -136,6 +136,7 @@ gistrescan(PG_FUNCTION_ARGS)
    IndexScanDesc scan = (IndexScanDesc) PG_GETARG_POINTER(0);
    ScanKey     key = (ScanKey) PG_GETARG_POINTER(1);
    ScanKey     orderbys = (ScanKey) PG_GETARG_POINTER(3);
+
    /* nkeys and norderbys arguments are ignored */
    GISTScanOpaque so = (GISTScanOpaque) scan->opaque;
    int         i;
@@ -164,8 +165,8 @@ gistrescan(PG_FUNCTION_ARGS)
                scan->numberOfKeys * sizeof(ScanKeyData));
 
        /*
-        * Modify the scan key so that the Consistent method is called for
-        * all comparisons. The original operator is passed to the Consistent
+        * Modify the scan key so that the Consistent method is called for all
+        * comparisons. The original operator is passed to the Consistent
         * function in the form of its strategy number, which is available
         * from the sk_strategy field, and its subtype from the sk_subtype
         * field.  Also, preserve sk_func.fn_collation which is the input
index 6736fd166c3650e9fafc8436e0dddb414154da13..e8bbd564c714257260234a787b46bcd118e29404 100644 (file)
@@ -503,11 +503,12 @@ gistFormTuple(GISTSTATE *giststate, Relation r,
    }
 
    res = index_form_tuple(giststate->tupdesc, compatt, isnull);
+
    /*
     * The offset number on tuples on internal pages is unused. For historical
     * reasons, it is set 0xffff.
     */
-   ItemPointerSetOffsetNumber( &(res->t_tid), 0xffff);
+   ItemPointerSetOffsetNumber(&(res->t_tid), 0xffff);
    return res;
 }
 
index 0f406e16c4eb56f9251e4c8d78a4900ddb930c3c..51354c1c185f98ed3282c17aacece1fb30c3c8a0 100644 (file)
@@ -41,12 +41,12 @@ static void
 gistRedoClearFollowRight(RelFileNode node, XLogRecPtr lsn,
                         BlockNumber leftblkno)
 {
-   Buffer buffer;
+   Buffer      buffer;
 
    buffer = XLogReadBuffer(node, leftblkno, false);
    if (BufferIsValid(buffer))
    {
-       Page page = (Page) BufferGetPage(buffer);
+       Page        page = (Page) BufferGetPage(buffer);
 
        /*
         * Note that we still update the page even if page LSN is equal to the
@@ -103,6 +103,7 @@ gistRedoPageUpdateRecord(XLogRecPtr lsn, XLogRecord *record)
    {
        int         i;
        OffsetNumber *todelete = (OffsetNumber *) data;
+
        data += sizeof(OffsetNumber) * xldata->ntodelete;
 
        for (i = 0; i < xldata->ntodelete; i++)
@@ -115,12 +116,14 @@ gistRedoPageUpdateRecord(XLogRecPtr lsn, XLogRecord *record)
    if (data - begin < record->xl_len)
    {
        OffsetNumber off = (PageIsEmpty(page)) ? FirstOffsetNumber :
-           OffsetNumberNext(PageGetMaxOffsetNumber(page));
+       OffsetNumberNext(PageGetMaxOffsetNumber(page));
+
        while (data - begin < record->xl_len)
        {
-           IndexTuple itup = (IndexTuple) data;
+           IndexTuple  itup = (IndexTuple) data;
            Size        sz = IndexTupleSize(itup);
            OffsetNumber l;
+
            data += sz;
 
            l = PageAddItem(page, (Item) itup, sz, off, false, false);
@@ -418,7 +421,7 @@ gistXLogSplit(RelFileNode node, BlockNumber blkno, bool page_is_leaf,
    SplitedPageLayout *ptr;
    int         npage = 0,
                cur;
-   XLogRecPtr recptr;
+   XLogRecPtr  recptr;
 
    for (ptr = dist; ptr; ptr = ptr->next)
        npage++;
@@ -540,8 +543,8 @@ gistXLogUpdate(RelFileNode node, Buffer buffer,
    }
 
    /*
-    * Include a full page image of the child buf. (only necessary if
-    * checkpoint happened since the child page was split)
+    * Include a full page image of the child buf. (only necessary if a
+    * checkpoint happened since the child page was split)
     */
    if (BufferIsValid(leftchildbuf))
    {
index f19e5627f83a87202f1a6a51fee36a33200f430c..4cb29b2bb45159991551d7fc14671dacf6bacfcc 100644 (file)
@@ -413,6 +413,7 @@ hashrescan(PG_FUNCTION_ARGS)
 {
    IndexScanDesc scan = (IndexScanDesc) PG_GETARG_POINTER(0);
    ScanKey     scankey = (ScanKey) PG_GETARG_POINTER(1);
+
    /* remaining arguments are ignored */
    HashScanOpaque so = (HashScanOpaque) scan->opaque;
    Relation    rel = scan->indexRelation;
index 89697f6ff5e6d8c5cfe05fa4865564e70d5c9761..1fbd8b39b4a73f6aee337fccf2dcce548d0850bb 100644 (file)
@@ -1070,7 +1070,7 @@ relation_close(Relation relation, LOCKMODE lockmode)
  *     This is essentially relation_open plus check that the relation
  *     is not an index nor a composite type.  (The caller should also
  *     check that it's not a view or foreign table before assuming it has
- *      storage.)
+ *     storage.)
  * ----------------
  */
 Relation
@@ -1922,8 +1922,8 @@ heap_insert(Relation relation, HeapTuple tup, CommandId cid,
 
    /*
     * We're about to do the actual insert -- check for conflict at the
-    * relation or buffer level first, to avoid possibly having to roll
-    * back work we've just done.
+    * relation or buffer level first, to avoid possibly having to roll back
+    * work we've just done.
     */
    CheckForSerializableConflictIn(relation, NULL, buffer);
 
@@ -2228,8 +2228,8 @@ l1:
    }
 
    /*
-    * We're about to do the actual delete -- check for conflict first,
-    * to avoid possibly having to roll back work we've just done.
+    * We're about to do the actual delete -- check for conflict first, to
+    * avoid possibly having to roll back work we've just done.
     */
    CheckForSerializableConflictIn(relation, &tp, buffer);
 
@@ -2587,8 +2587,8 @@ l2:
    }
 
    /*
-    * We're about to do the actual update -- check for conflict first,
-    * to avoid possibly having to roll back work we've just done.
+    * We're about to do the actual update -- check for conflict first, to
+    * avoid possibly having to roll back work we've just done.
     */
    CheckForSerializableConflictIn(relation, &oldtup, buffer);
 
@@ -2737,8 +2737,8 @@ l2:
    }
 
    /*
-    * We're about to create the new tuple -- check for conflict first,
-    * to avoid possibly having to roll back work we've just done.
+    * We're about to create the new tuple -- check for conflict first, to
+    * avoid possibly having to roll back work we've just done.
     *
     * NOTE: For a tuple insert, we only need to check for table locks, since
     * predicate locking at the index level will cover ranges for anything
@@ -3860,12 +3860,12 @@ HeapTupleHeaderAdvanceLatestRemovedXid(HeapTupleHeader tuple,
    }
 
    /*
-    * Ignore tuples inserted by an aborted transaction or
-    * if the tuple was updated/deleted by the inserting transaction.
+    * Ignore tuples inserted by an aborted transaction or if the tuple was
+    * updated/deleted by the inserting transaction.
     *
     * Look for a committed hint bit, or if no xmin bit is set, check clog.
-    * This needs to work on both master and standby, where it is used
-    * to assess btree delete records.
+    * This needs to work on both master and standby, where it is used to
+    * assess btree delete records.
     */
    if ((tuple->t_infomask & HEAP_XMIN_COMMITTED) ||
        (!(tuple->t_infomask & HEAP_XMIN_COMMITTED) &&
@@ -3874,7 +3874,7 @@ HeapTupleHeaderAdvanceLatestRemovedXid(HeapTupleHeader tuple,
    {
        if (xmax != xmin &&
            TransactionIdFollows(xmax, *latestRemovedXid))
-               *latestRemovedXid = xmax;
+           *latestRemovedXid = xmax;
    }
 
    /* *latestRemovedXid may still be invalid at end */
@@ -4158,8 +4158,8 @@ log_newpage(RelFileNode *rnode, ForkNumber forkNum, BlockNumber blkno,
    recptr = XLogInsert(RM_HEAP_ID, XLOG_HEAP_NEWPAGE, rdata);
 
    /*
-    * The page may be uninitialized. If so, we can't set the LSN
-    * and TLI because that would corrupt the page.
+    * The page may be uninitialized. If so, we can't set the LSN and TLI
+    * because that would corrupt the page.
     */
    if (!PageIsNew(page))
    {
@@ -4352,8 +4352,8 @@ heap_xlog_newpage(XLogRecPtr lsn, XLogRecord *record)
    memcpy(page, (char *) xlrec + SizeOfHeapNewpage, BLCKSZ);
 
    /*
-    * The page may be uninitialized. If so, we can't set the LSN
-    * and TLI because that would corrupt the page.
+    * The page may be uninitialized. If so, we can't set the LSN and TLI
+    * because that would corrupt the page.
     */
    if (!PageIsNew(page))
    {
index 28499925281ceec223186efb257186523d6c601e..72a69e52b02878aba076a8b9f15d70149505aed0 100644 (file)
@@ -150,7 +150,7 @@ ReadBufferBI(Relation relation, BlockNumber targetBlock,
 Buffer
 RelationGetBufferForTuple(Relation relation, Size len,
                          Buffer otherBuffer, int options,
-                         struct BulkInsertStateData *bistate)
+                         struct BulkInsertStateData * bistate)
 {
    bool        use_fsm = !(options & HEAP_INSERT_SKIP_FSM);
    Buffer      buffer = InvalidBuffer;
index c710f1d316e759e6bcbf091f44e89233799a817b..e56140950afc96f3b90843ec19ae2f7231ce36d1 100644 (file)
@@ -131,7 +131,7 @@ typedef struct RewriteStateData
                                 * them */
    HTAB       *rs_unresolved_tups;     /* unmatched A tuples */
    HTAB       *rs_old_new_tid_map;     /* unmatched B tuples */
-} RewriteStateData;
+}  RewriteStateData;
 
 /*
  * The lookup keys for the hash tables are tuple TID and xmin (we must check
@@ -277,7 +277,7 @@ end_heap_rewrite(RewriteState state)
    }
 
    /*
-    * If the rel is WAL-logged, must fsync before commit.  We use heap_sync
+    * If the rel is WAL-logged, must fsync before commit.  We use heap_sync
     * to ensure that the toast table gets fsync'd too.
     *
     * It's obvious that we must do this when not WAL-logging. It's less
index 88f73e8241e5c8a521e9f9209c49f8041f9336d4..66af2c37c54f8f0d33145db2d5b84bb67e17b4a8 100644 (file)
@@ -872,7 +872,7 @@ index_getprocinfo(Relation irel,
                 procnum, attnum, RelationGetRelationName(irel));
 
        fmgr_info_cxt(procId, locinfo, irel->rd_indexcxt);
-       fmgr_info_set_collation(irel->rd_indcollation[attnum-1], locinfo);
+       fmgr_info_set_collation(irel->rd_indcollation[attnum - 1], locinfo);
    }
 
    return locinfo;
index 0dd745f19a4c7cfeff3ffb7faba277a1ea635ad0..219f94fd0dd92c43a48b255da8deeb915000506d 100644 (file)
@@ -179,8 +179,8 @@ top:
         * The only conflict predicate locking cares about for indexes is when
         * an index tuple insert conflicts with an existing lock.  Since the
         * actual location of the insert is hard to predict because of the
-        * random search used to prevent O(N^2) performance when there are many
-        * duplicate entries, we can just use the "first valid" page.
+        * random search used to prevent O(N^2) performance when there are
+        * many duplicate entries, we can just use the "first valid" page.
         */
        CheckForSerializableConflictIn(rel, NULL, buf);
        /* do the insertion */
@@ -915,13 +915,13 @@ _bt_split(Relation rel, Buffer buf, OffsetNumber firstright,
    /*
     * origpage is the original page to be split.  leftpage is a temporary
     * buffer that receives the left-sibling data, which will be copied back
-    * into origpage on success.  rightpage is the new page that receives
-    * the right-sibling data.  If we fail before reaching the critical
-    * section, origpage hasn't been modified and leftpage is only workspace.
-    * In principle we shouldn't need to worry about rightpage either,
-    * because it hasn't been linked into the btree page structure; but to
-    * avoid leaving possibly-confusing junk behind, we are careful to rewrite
-    * rightpage as zeroes before throwing any error.
+    * into origpage on success.  rightpage is the new page that receives the
+    * right-sibling data.  If we fail before reaching the critical section,
+    * origpage hasn't been modified and leftpage is only workspace. In
+    * principle we shouldn't need to worry about rightpage either, because it
+    * hasn't been linked into the btree page structure; but to avoid leaving
+    * possibly-confusing junk behind, we are careful to rewrite rightpage as
+    * zeroes before throwing any error.
     */
    origpage = BufferGetPage(buf);
    leftpage = PageGetTempPage(origpage);
@@ -1118,7 +1118,7 @@ _bt_split(Relation rel, Buffer buf, OffsetNumber firstright,
        {
            memset(rightpage, 0, BufferGetPageSize(rbuf));
            elog(ERROR, "right sibling's left-link doesn't match: "
-                "block %u links to %u instead of expected %u in index \"%s\"",
+              "block %u links to %u instead of expected %u in index \"%s\"",
                 oopaque->btpo_next, sopaque->btpo_prev, origpagenumber,
                 RelationGetRelationName(rel));
        }
index 27964455f7cac5fd402a1fb57e0d8d1b3c2bc3f4..2477736281bcefb1702f84b878b7619edb2ab57f 100644 (file)
@@ -1268,9 +1268,9 @@ _bt_pagedel(Relation rel, Buffer buf, BTStack stack)
 
    /*
     * Check that the parent-page index items we're about to delete/overwrite
-    * contain what we expect.  This can fail if the index has become
-    * corrupt for some reason.  We want to throw any error before entering
-    * the critical section --- otherwise it'd be a PANIC.
+    * contain what we expect.  This can fail if the index has become corrupt
+    * for some reason.  We want to throw any error before entering the
+    * critical section --- otherwise it'd be a PANIC.
     *
     * The test on the target item is just an Assert because _bt_getstackbuf
     * should have guaranteed it has the expected contents.  The test on the
index 7a0e1a9c25ea2423f1322a174b7cb6e7dd1bbb69..6a7ddd7db4de414f011f7b855fd3f47a6bf97b45 100644 (file)
@@ -220,7 +220,7 @@ btbuildempty(PG_FUNCTION_ARGS)
    metapage = (Page) palloc(BLCKSZ);
    _bt_initmetapage(metapage, P_NONE, 0);
 
-   /* Write the page.  If archiving/streaming, XLOG it. */
+   /* Write the page.  If archiving/streaming, XLOG it. */
    smgrwrite(index->rd_smgr, INIT_FORKNUM, BTREE_METAPAGE,
              (char *) metapage, true);
    if (XLogIsNeeded())
@@ -403,6 +403,7 @@ btrescan(PG_FUNCTION_ARGS)
 {
    IndexScanDesc scan = (IndexScanDesc) PG_GETARG_POINTER(0);
    ScanKey     scankey = (ScanKey) PG_GETARG_POINTER(1);
+
    /* remaining arguments are ignored */
    BTScanOpaque so = (BTScanOpaque) scan->opaque;
 
index cb78a1bae16d75253feaea855c836459abfe4a18..91f8cadea52b1bca1474a05f02f17655bb1685a9 100644 (file)
@@ -65,7 +65,7 @@ _bt_search(Relation rel, int keysz, ScanKey scankey, bool nextkey,
    /* If index is empty and access = BT_READ, no root page is created. */
    if (!BufferIsValid(*bufP))
    {
-       PredicateLockRelation(rel);  /* Nothing finer to lock exists. */
+       PredicateLockRelation(rel);     /* Nothing finer to lock exists. */
        return (BTStack) NULL;
    }
 
@@ -1364,7 +1364,7 @@ _bt_get_endpoint(Relation rel, uint32 level, bool rightmost)
    if (!BufferIsValid(buf))
    {
        /* empty index... */
-       PredicateLockRelation(rel);  /* Nothing finer to lock exists. */
+       PredicateLockRelation(rel);     /* Nothing finer to lock exists. */
        return InvalidBuffer;
    }
 
@@ -1444,7 +1444,7 @@ _bt_endpoint(IndexScanDesc scan, ScanDirection dir)
    if (!BufferIsValid(buf))
    {
        /* empty index... */
-       PredicateLockRelation(rel);  /* Nothing finer to lock exists. */
+       PredicateLockRelation(rel);     /* Nothing finer to lock exists. */
        so->currPos.buf = InvalidBuffer;
        return false;
    }
index fd0e86a6aa3a19df28d523c3cacf8640763fb3bd..256a7f9f98f9aae57b69b61c717ca4e404af788b 100644 (file)
@@ -799,7 +799,7 @@ _bt_load(BTWriteState *wstate, BTSpool *btspool, BTSpool *btspool2)
 
    /*
     * If the index is WAL-logged, we must fsync it down to disk before it's
-    * safe to commit the transaction.  (For a non-WAL-logged index we don't
+    * safe to commit the transaction.  (For a non-WAL-logged index we don't
     * care since the index will be uninteresting after a crash anyway.)
     *
     * It's obvious that we must do this when not WAL-logging the build. It's
index add932d9428180d68a0962ab1005d8a3788df9d7..d448ba6a502845e1f9d4d9ff75e1f0eb86768781 100644 (file)
@@ -70,8 +70,8 @@ _bt_mkscankey(Relation rel, IndexTuple itup)
 
        /*
         * We can use the cached (default) support procs since no cross-type
-        * comparison can be needed.  The cached support proc entries have
-        * the right collation for the index, too.
+        * comparison can be needed.  The cached support proc entries have the
+        * right collation for the index, too.
         */
        procinfo = index_getprocinfo(rel, i + 1, BTORDER_PROC);
        arg = index_getattr(itup, i + 1, itupdesc, &null);
@@ -120,8 +120,8 @@ _bt_mkscankey_nodata(Relation rel)
 
        /*
         * We can use the cached (default) support procs since no cross-type
-        * comparison can be needed.  The cached support proc entries have
-        * the right collation for the index, too.
+        * comparison can be needed.  The cached support proc entries have the
+        * right collation for the index, too.
         */
        procinfo = index_getprocinfo(rel, i + 1, BTORDER_PROC);
        flags = SK_ISNULL | (indoption[i] << SK_BT_INDOPTION_SHIFT);
index 729c7b72e0f110fbeffa4cd5169f61c617c4d121..281268120ef254a0a925763cea9da48ddb9f598c 100644 (file)
@@ -120,7 +120,7 @@ typedef struct GlobalTransactionData
    TransactionId locking_xid;  /* top-level XID of backend working on xact */
    bool        valid;          /* TRUE if fully prepared */
    char        gid[GIDSIZE];   /* The GID assigned to the prepared xact */
-} GlobalTransactionData;
+}  GlobalTransactionData;
 
 /*
  * Two Phase Commit shared state.  Access to this struct is protected
@@ -1029,8 +1029,8 @@ EndPrepare(GlobalTransaction gxact)
    /* If we crash now, we have prepared: WAL replay will fix things */
 
    /*
-    * Wake up all walsenders to send WAL up to the PREPARE record
-    * immediately if replication is enabled
+    * Wake up all walsenders to send WAL up to the PREPARE record immediately
+    * if replication is enabled
     */
    if (max_wal_senders > 0)
        WalSndWakeup();
@@ -2043,8 +2043,8 @@ RecordTransactionCommitPrepared(TransactionId xid,
    /*
     * Wait for synchronous replication, if required.
     *
-    * Note that at this stage we have marked clog, but still show as
-    * running in the procarray and continue to hold locks.
+    * Note that at this stage we have marked clog, but still show as running
+    * in the procarray and continue to hold locks.
     */
    SyncRepWaitForLSN(recptr);
 }
@@ -2130,8 +2130,8 @@ RecordTransactionAbortPrepared(TransactionId xid,
    /*
     * Wait for synchronous replication, if required.
     *
-    * Note that at this stage we have marked clog, but still show as
-    * running in the procarray and continue to hold locks.
+    * Note that at this stage we have marked clog, but still show as running
+    * in the procarray and continue to hold locks.
     */
    SyncRepWaitForLSN(recptr);
 }
index a828b3de48fb523c4f774929c417853597eb4758..500335bd6ffb398e4db82807a1a7b76d7cde260a 100644 (file)
@@ -355,9 +355,9 @@ SetTransactionIdLimit(TransactionId oldest_datfrozenxid, Oid oldest_datoid)
        char       *oldest_datname;
 
        /*
-        * We can be called when not inside a transaction, for example
-        * during StartupXLOG().  In such a case we cannot do database
-        * access, so we must just report the oldest DB's OID.
+        * We can be called when not inside a transaction, for example during
+        * StartupXLOG().  In such a case we cannot do database access, so we
+        * must just report the oldest DB's OID.
         *
         * Note: it's also possible that get_database_name fails and returns
         * NULL, for example because the database just got dropped.  We'll
index 55aee8791014e343e7ddf459e386399cee070ef3..8a4c4eccd7398f8e833a81f437a9f8fb09937127 100644 (file)
@@ -420,11 +420,11 @@ AssignTransactionId(TransactionState s)
     */
    if (isSubXact && !TransactionIdIsValid(s->parent->transactionId))
    {
-       TransactionState    p = s->parent;
-       TransactionState   *parents;
-       size_t  parentOffset = 0;
+       TransactionState p = s->parent;
+       TransactionState *parents;
+       size_t      parentOffset = 0;
 
-       parents = palloc(sizeof(TransactionState) *  s->nestingLevel);
+       parents = palloc(sizeof(TransactionState) * s->nestingLevel);
        while (p != NULL && !TransactionIdIsValid(p->transactionId))
        {
            parents[parentOffset++] = p;
@@ -432,8 +432,8 @@ AssignTransactionId(TransactionState s)
        }
 
        /*
-        * This is technically a recursive call, but the recursion will
-        * never be more than one layer deep.
+        * This is technically a recursive call, but the recursion will never
+        * be more than one layer deep.
         */
        while (parentOffset != 0)
            AssignTransactionId(parents[--parentOffset]);
@@ -1037,16 +1037,17 @@ RecordTransactionCommit(void)
    /*
     * Check if we want to commit asynchronously.  We can allow the XLOG flush
     * to happen asynchronously if synchronous_commit=off, or if the current
-    * transaction has not performed any WAL-logged operation.  The latter case
-    * can arise if the current transaction wrote only to temporary and/or
-    * unlogged tables.  In case of a crash, the loss of such a transaction
-    * will be irrelevant since temp tables will be lost anyway, and unlogged
-    * tables will be truncated.  (Given the foregoing, you might think that it
-    * would be unnecessary to emit the XLOG record at all in this case, but we
-    * don't currently try to do that.  It would certainly cause problems at
-    * least in Hot Standby mode, where the KnownAssignedXids machinery
-    * requires tracking every XID assignment.  It might be OK to skip it only
-    * when wal_level < hot_standby, but for now we don't.)
+    * transaction has not performed any WAL-logged operation.  The latter
+    * case can arise if the current transaction wrote only to temporary
+    * and/or unlogged tables.  In case of a crash, the loss of such a
+    * transaction will be irrelevant since temp tables will be lost anyway,
+    * and unlogged tables will be truncated.  (Given the foregoing, you might
+    * think that it would be unnecessary to emit the XLOG record at all in
+    * this case, but we don't currently try to do that.  It would certainly
+    * cause problems at least in Hot Standby mode, where the
+    * KnownAssignedXids machinery requires tracking every XID assignment.  It
+    * might be OK to skip it only when wal_level < hot_standby, but for now
+    * we don't.)
     *
     * However, if we're doing cleanup of any non-temp rels or committing any
     * command that wanted to force sync commit, then we must flush XLOG
@@ -1130,8 +1131,8 @@ RecordTransactionCommit(void)
    /*
     * Wait for synchronous replication, if required.
     *
-    * Note that at this stage we have marked clog, but still show as
-    * running in the procarray and continue to hold locks.
+    * Note that at this stage we have marked clog, but still show as running
+    * in the procarray and continue to hold locks.
     */
    SyncRepWaitForLSN(XactLastRecEnd);
 
@@ -1785,10 +1786,10 @@ CommitTransaction(void)
    }
 
    /*
-    * The remaining actions cannot call any user-defined code, so it's
-    * safe to start shutting down within-transaction services.  But note
-    * that most of this stuff could still throw an error, which would
-    * switch us into the transaction-abort path.
+    * The remaining actions cannot call any user-defined code, so it's safe
+    * to start shutting down within-transaction services.  But note that most
+    * of this stuff could still throw an error, which would switch us into
+    * the transaction-abort path.
     */
 
    /* Shut down the deferred-trigger manager */
@@ -1805,8 +1806,8 @@ CommitTransaction(void)
 
    /*
     * Mark serializable transaction as complete for predicate locking
-    * purposes.  This should be done as late as we can put it and still
-    * allow errors to be raised for failure patterns found at commit.
+    * purposes.  This should be done as late as we can put it and still allow
+    * errors to be raised for failure patterns found at commit.
     */
    PreCommit_CheckForSerializationFailure();
 
@@ -1988,10 +1989,10 @@ PrepareTransaction(void)
    }
 
    /*
-    * The remaining actions cannot call any user-defined code, so it's
-    * safe to start shutting down within-transaction services.  But note
-    * that most of this stuff could still throw an error, which would
-    * switch us into the transaction-abort path.
+    * The remaining actions cannot call any user-defined code, so it's safe
+    * to start shutting down within-transaction services.  But note that most
+    * of this stuff could still throw an error, which would switch us into
+    * the transaction-abort path.
     */
 
    /* Shut down the deferred-trigger manager */
@@ -2008,8 +2009,8 @@ PrepareTransaction(void)
 
    /*
     * Mark serializable transaction as complete for predicate locking
-    * purposes.  This should be done as late as we can put it and still
-    * allow errors to be raised for failure patterns found at commit.
+    * purposes.  This should be done as late as we can put it and still allow
+    * errors to be raised for failure patterns found at commit.
     */
    PreCommit_CheckForSerializationFailure();
 
index b31c79ebbdcb03660c81e5f83c55e107ee2b6fb2..9c45759661c4a3220e1e0bbb9929786c3b7cfd31 100644 (file)
@@ -64,7 +64,7 @@
 /* File path names (all relative to $PGDATA) */
 #define RECOVERY_COMMAND_FILE  "recovery.conf"
 #define RECOVERY_COMMAND_DONE  "recovery.done"
-#define PROMOTE_SIGNAL_FILE    "promote"
+#define PROMOTE_SIGNAL_FILE "promote"
 
 
 /* User-settable parameters */
@@ -160,6 +160,7 @@ static XLogRecPtr LastRec;
  * known, need to check the shared state".
  */
 static bool LocalRecoveryInProgress = true;
+
 /*
  * Local copy of SharedHotStandbyActive variable. False actually means "not
  * known, need to check the shared state".
@@ -355,10 +356,9 @@ typedef struct XLogCtlInsert
    /*
     * exclusiveBackup is true if a backup started with pg_start_backup() is
     * in progress, and nonExclusiveBackups is a counter indicating the number
-    * of streaming base backups currently in progress. forcePageWrites is
-    * set to true when either of these is non-zero. lastBackupStart is the
-    * latest checkpoint redo location used as a starting point for an online
-    * backup.
+    * of streaming base backups currently in progress. forcePageWrites is set
+    * to true when either of these is non-zero. lastBackupStart is the latest
+    * checkpoint redo location used as a starting point for an online backup.
     */
    bool        exclusiveBackup;
    int         nonExclusiveBackups;
@@ -388,7 +388,7 @@ typedef struct XLogCtlData
    XLogwrtResult LogwrtResult;
    uint32      ckptXidEpoch;   /* nextXID & epoch of latest checkpoint */
    TransactionId ckptXid;
-   XLogRecPtr  asyncXactLSN; /* LSN of newest async commit/abort */
+   XLogRecPtr  asyncXactLSN;   /* LSN of newest async commit/abort */
    uint32      lastRemovedLog; /* latest removed/recycled XLOG segment */
    uint32      lastRemovedSeg;
 
@@ -425,9 +425,9 @@ typedef struct XLogCtlData
    bool        SharedHotStandbyActive;
 
    /*
-    * recoveryWakeupLatch is used to wake up the startup process to
-    * continue WAL replay, if it is waiting for WAL to arrive or failover
-    * trigger file to appear.
+    * recoveryWakeupLatch is used to wake up the startup process to continue
+    * WAL replay, if it is waiting for WAL to arrive or failover trigger file
+    * to appear.
     */
    Latch       recoveryWakeupLatch;
 
@@ -576,7 +576,7 @@ typedef struct xl_parameter_change
 /* logs restore point */
 typedef struct xl_restore_point
 {
-   TimestampTz rp_time;
+   TimestampTz rp_time;
    char        rp_name[MAXFNAMELEN];
 } xl_restore_point;
 
@@ -4272,27 +4272,29 @@ existsTimeLineHistory(TimeLineID probeTLI)
 static bool
 rescanLatestTimeLine(void)
 {
-   TimeLineID newtarget;
+   TimeLineID  newtarget;
+
    newtarget = findNewestTimeLine(recoveryTargetTLI);
    if (newtarget != recoveryTargetTLI)
    {
        /*
         * Determine the list of expected TLIs for the new TLI
         */
-       List *newExpectedTLIs;
+       List       *newExpectedTLIs;
+
        newExpectedTLIs = readTimeLineHistory(newtarget);
 
        /*
-        * If the current timeline is not part of the history of the
-        * new timeline, we cannot proceed to it.
+        * If the current timeline is not part of the history of the new
+        * timeline, we cannot proceed to it.
         *
         * XXX This isn't foolproof: The new timeline might have forked from
         * the current one, but before the current recovery location. In that
         * case we will still switch to the new timeline and proceed replaying
         * from it even though the history doesn't match what we already
         * replayed. That's not good. We will likely notice at the next online
-        * checkpoint, as the TLI won't match what we expected, but it's
-        * not guaranteed. The admin needs to make sure that doesn't happen.
+        * checkpoint, as the TLI won't match what we expected, but it's not
+        * guaranteed. The admin needs to make sure that doesn't happen.
         */
        if (!list_member_int(newExpectedTLIs,
                             (int) recoveryTargetTLI))
@@ -4480,7 +4482,7 @@ writeTimeLineHistory(TimeLineID newTLI, TimeLineID parentTLI,
                 timestamptz_to_str(recoveryStopTime));
    else if (recoveryTarget == RECOVERY_TARGET_NAME)
        snprintf(buffer, sizeof(buffer),
-               "%s%u\t%s\tat restore point \"%s\"\n",
+                "%s%u\t%s\tat restore point \"%s\"\n",
                 (srcfd < 0) ? "" : "\n",
                 parentTLI,
                 xlogfname,
@@ -4921,7 +4923,7 @@ check_wal_buffers(int *newval, void **extra, GucSource source)
    {
        /*
         * If we haven't yet changed the boot_val default of -1, just let it
-        * be.  We'll fix it when XLOGShmemSize is called.
+        * be.  We'll fix it when XLOGShmemSize is called.
         */
        if (XLOGbuffers == -1)
            return true;
@@ -4954,8 +4956,8 @@ XLOGShmemSize(void)
    /*
     * If the value of wal_buffers is -1, use the preferred auto-tune value.
     * This isn't an amazingly clean place to do this, but we must wait till
-    * NBuffers has received its final value, and must do it before using
-    * the value of XLOGbuffers to do anything important.
+    * NBuffers has received its final value, and must do it before using the
+    * value of XLOGbuffers to do anything important.
     */
    if (XLOGbuffers == -1)
    {
@@ -5086,9 +5088,9 @@ BootStrapXLOG(void)
    /*
     * Set up information for the initial checkpoint record
     *
-    * The initial checkpoint record is written to the beginning of the
-    * WAL segment with logid=0 logseg=1. The very first WAL segment, 0/0, is
-    * not used, so that we can use 0/0 to mean "before any valid WAL segment".
+    * The initial checkpoint record is written to the beginning of the WAL
+    * segment with logid=0 logseg=1. The very first WAL segment, 0/0, is not
+    * used, so that we can use 0/0 to mean "before any valid WAL segment".
     */
    checkPoint.redo.xlogid = 0;
    checkPoint.redo.xrecoff = XLogSegSize + SizeOfXLogLongPHD;
@@ -5219,8 +5221,8 @@ readRecoveryCommandFile(void)
    TimeLineID  rtli = 0;
    bool        rtliGiven = false;
    ConfigVariable *item,
-                  *head = NULL,
-                  *tail = NULL;
+              *head = NULL,
+              *tail = NULL;
 
    fd = AllocateFile(RECOVERY_COMMAND_FILE, "r");
    if (fd == NULL)
@@ -5236,7 +5238,7 @@ readRecoveryCommandFile(void)
    /*
     * Since we're asking ParseConfigFp() to error out at FATAL, there's no
     * need to check the return value.
-    */ 
+    */
    ParseConfigFp(fd, RECOVERY_COMMAND_FILE, 0, FATAL, &head, &tail);
 
    for (item = head; item; item = item->next)
@@ -5312,7 +5314,7 @@ readRecoveryCommandFile(void)
             * this overrides recovery_target_time
             */
            if (recoveryTarget == RECOVERY_TARGET_XID ||
-                   recoveryTarget == RECOVERY_TARGET_NAME)
+               recoveryTarget == RECOVERY_TARGET_NAME)
                continue;
            recoveryTarget = RECOVERY_TARGET_TIME;
 
@@ -5321,7 +5323,7 @@ readRecoveryCommandFile(void)
             */
            recoveryTargetTime =
                DatumGetTimestampTz(DirectFunctionCall3(timestamptz_in,
-                                                       CStringGetDatum(item->value),
+                                               CStringGetDatum(item->value),
                                                ObjectIdGetDatum(InvalidOid),
                                                        Int32GetDatum(-1)));
            ereport(DEBUG2,
@@ -5610,8 +5612,8 @@ recoveryStopsHere(XLogRecord *record, bool *includeThis)
    if (recoveryTarget == RECOVERY_TARGET_UNSET)
    {
        /*
-        * Save timestamp of latest transaction commit/abort if this is
-        * transaction record
+        * Save timestamp of latest transaction commit/abort if this is a
+        * transaction record
         */
        if (record->xl_rmid == RM_XACT_ID)
            SetLatestXTime(recordXtime);
@@ -5636,8 +5638,8 @@ recoveryStopsHere(XLogRecord *record, bool *includeThis)
    else if (recoveryTarget == RECOVERY_TARGET_NAME)
    {
        /*
-        * There can be many restore points that share the same name, so we stop
-        * at the first one
+        * There can be many restore points that share the same name, so we
+        * stop at the first one
         */
        stopsHere = (strcmp(recordRPName, recoveryTargetName) == 0);
 
@@ -5699,14 +5701,14 @@ recoveryStopsHere(XLogRecord *record, bool *includeThis)
            strncpy(recoveryStopName, recordRPName, MAXFNAMELEN);
 
            ereport(LOG,
-                   (errmsg("recovery stopping at restore point \"%s\", time %s",
-                               recoveryStopName,
-                               timestamptz_to_str(recoveryStopTime))));
+               (errmsg("recovery stopping at restore point \"%s\", time %s",
+                       recoveryStopName,
+                       timestamptz_to_str(recoveryStopTime))));
        }
 
        /*
-        * Note that if we use a RECOVERY_TARGET_TIME then we can stop
-        * at a restore point since they are timestamped, though the latest
+        * Note that if we use a RECOVERY_TARGET_TIME then we can stop at a
+        * restore point since they are timestamped, though the latest
         * transaction time is not updated.
         */
        if (record->xl_rmid == RM_XACT_ID && recoveryStopAfter)
@@ -5732,7 +5734,7 @@ recoveryPausesHere(void)
 
    while (RecoveryIsPaused())
    {
-       pg_usleep(1000000L);        /* 1000 ms */
+       pg_usleep(1000000L);    /* 1000 ms */
        HandleStartupProcInterrupts();
    }
 }
@@ -5742,7 +5744,7 @@ RecoveryIsPaused(void)
 {
    /* use volatile pointer to prevent code rearrangement */
    volatile XLogCtlData *xlogctl = XLogCtl;
-   bool recoveryPause;
+   bool        recoveryPause;
 
    SpinLockAcquire(&xlogctl->info_lck);
    recoveryPause = xlogctl->recoveryPause;
@@ -5771,7 +5773,7 @@ pg_xlog_replay_pause(PG_FUNCTION_ARGS)
    if (!superuser())
        ereport(ERROR,
                (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-            (errmsg("must be superuser to control recovery"))));
+                (errmsg("must be superuser to control recovery"))));
 
    if (!RecoveryInProgress())
        ereport(ERROR,
@@ -5793,7 +5795,7 @@ pg_xlog_replay_resume(PG_FUNCTION_ARGS)
    if (!superuser())
        ereport(ERROR,
                (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-            (errmsg("must be superuser to control recovery"))));
+                (errmsg("must be superuser to control recovery"))));
 
    if (!RecoveryInProgress())
        ereport(ERROR,
@@ -5815,7 +5817,7 @@ pg_is_xlog_replay_paused(PG_FUNCTION_ARGS)
    if (!superuser())
        ereport(ERROR,
                (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-            (errmsg("must be superuser to control recovery"))));
+                (errmsg("must be superuser to control recovery"))));
 
    if (!RecoveryInProgress())
        ereport(ERROR,
@@ -5870,7 +5872,7 @@ GetLatestXTime(void)
 Datum
 pg_last_xact_replay_timestamp(PG_FUNCTION_ARGS)
 {
-   TimestampTz xtime;
+   TimestampTz xtime;
 
    xtime = GetLatestXTime();
    if (xtime == 0)
@@ -6132,10 +6134,10 @@ StartupXLOG(void)
            InRecovery = true;  /* force recovery even if SHUTDOWNED */
 
            /*
-            * Make sure that REDO location exists. This may not be
-            * the case if there was a crash during an online backup,
-            * which left a backup_label around that references a WAL
-            * segment that's already been archived.
+            * Make sure that REDO location exists. This may not be the case
+            * if there was a crash during an online backup, which left a
+            * backup_label around that references a WAL segment that's
+            * already been archived.
             */
            if (XLByteLT(checkPoint.redo, checkPointLoc))
            {
@@ -6150,7 +6152,7 @@ StartupXLOG(void)
            ereport(FATAL,
                    (errmsg("could not locate required checkpoint record"),
                     errhint("If you are not restoring from a backup, try removing the file \"%s/backup_label\".", DataDir)));
-           wasShutdown = false; /* keep compiler quiet */
+           wasShutdown = false;    /* keep compiler quiet */
        }
        /* set flag to delete it later */
        haveBackupLabel = true;
@@ -6330,9 +6332,9 @@ StartupXLOG(void)
 
        /*
         * We're in recovery, so unlogged relations relations may be trashed
-        * and must be reset.  This should be done BEFORE allowing Hot
-        * Standby connections, so that read-only backends don't try to
-        * read whatever garbage is left over from before.
+        * and must be reset.  This should be done BEFORE allowing Hot Standby
+        * connections, so that read-only backends don't try to read whatever
+        * garbage is left over from before.
         */
        ResetUnloggedRelations(UNLOGGED_RELATION_CLEANUP);
 
@@ -6517,7 +6519,8 @@ StartupXLOG(void)
                if (recoveryStopsHere(record, &recoveryApply))
                {
                    /*
-                    * Pause only if users can connect to send a resume message
+                    * Pause only if users can connect to send a resume
+                    * message
                     */
                    if (recoveryPauseAtTarget && standbyState == STANDBY_SNAPSHOT_READY)
                    {
@@ -7003,8 +7006,8 @@ HotStandbyActive(void)
 {
    /*
     * We check shared state each time only until Hot Standby is active. We
-    * can't de-activate Hot Standby, so there's no need to keep checking after
-    * the shared variable has once been seen true.
+    * can't de-activate Hot Standby, so there's no need to keep checking
+    * after the shared variable has once been seen true.
     */
    if (LocalHotStandbyActive)
        return true;
@@ -7429,14 +7432,14 @@ LogCheckpointEnd(bool restartpoint)
     */
    longest_secs = (long) (CheckpointStats.ckpt_longest_sync / 1000000);
    longest_usecs = CheckpointStats.ckpt_longest_sync -
-       (uint64) longest_secs * 1000000;
+       (uint64) longest_secs *1000000;
 
    average_sync_time = 0;
-   if (CheckpointStats.ckpt_sync_rels > 0) 
+   if (CheckpointStats.ckpt_sync_rels > 0)
        average_sync_time = CheckpointStats.ckpt_agg_sync_time /
            CheckpointStats.ckpt_sync_rels;
    average_secs = (long) (average_sync_time / 1000000);
-   average_usecs = average_sync_time - (uint64) average_secs * 1000000;
+   average_usecs = average_sync_time - (uint64) average_secs *1000000;
 
    if (restartpoint)
        elog(LOG, "restartpoint complete: wrote %d buffers (%.1f%%); "
@@ -8241,9 +8244,9 @@ RequestXLogSwitch(void)
 XLogRecPtr
 XLogRestorePoint(const char *rpName)
 {
-   XLogRecPtr              RecPtr;
-   XLogRecData             rdata;
-   xl_restore_point        xlrec;
+   XLogRecPtr  RecPtr;
+   XLogRecData rdata;
+   xl_restore_point xlrec;
 
    xlrec.rp_time = GetCurrentTimestamp();
    strncpy(xlrec.rp_name, rpName, MAXFNAMELEN);
@@ -8257,7 +8260,7 @@ XLogRestorePoint(const char *rpName)
 
    ereport(LOG,
            (errmsg("restore point \"%s\" created at %X/%X",
-                   rpName, RecPtr.xlogid, RecPtr.xrecoff)));
+                   rpName, RecPtr.xlogid, RecPtr.xrecoff)));
 
    return RecPtr;
 }
@@ -8643,7 +8646,7 @@ get_sync_bit(int method)
 
    /*
     * Optimize writes by bypassing kernel cache with O_DIRECT when using
-    * O_SYNC/O_FSYNC and O_DSYNC.  But only if archiving and streaming are
+    * O_SYNC/O_FSYNC and O_DSYNC.  But only if archiving and streaming are
     * disabled, otherwise the archive command or walsender process will read
     * the WAL soon after writing it, which is guaranteed to cause a physical
     * read if we bypassed the kernel cache. We also skip the
@@ -8775,7 +8778,7 @@ pg_start_backup(PG_FUNCTION_ARGS)
    text       *backupid = PG_GETARG_TEXT_P(0);
    bool        fast = PG_GETARG_BOOL(1);
    char       *backupidstr;
-   XLogRecPtr  startpoint;
+   XLogRecPtr  startpoint;
    char        startxlogstr[MAXFNAMELEN];
 
    backupidstr = text_to_cstring(backupid);
@@ -8791,7 +8794,7 @@ pg_start_backup(PG_FUNCTION_ARGS)
  * do_pg_start_backup is the workhorse of the user-visible pg_start_backup()
  * function. It creates the necessary starting checkpoint and constructs the
  * backup label file.
- * 
+ *
  * There are two kind of backups: exclusive and non-exclusive. An exclusive
  * backup is started with pg_start_backup(), and there can be only one active
  * at a time. The backup label file of an exclusive backup is written to
@@ -8826,7 +8829,7 @@ do_pg_start_backup(const char *backupidstr, bool fast, char **labelfile)
    if (!superuser() && !is_authenticated_user_replication_role())
        ereport(ERROR,
                (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-                errmsg("must be superuser or replication role to run a backup")));
+          errmsg("must be superuser or replication role to run a backup")));
 
    if (RecoveryInProgress())
        ereport(ERROR,
@@ -8897,25 +8900,27 @@ do_pg_start_backup(const char *backupidstr, bool fast, char **labelfile)
    /* Ensure we release forcePageWrites if fail below */
    PG_ENSURE_ERROR_CLEANUP(pg_start_backup_callback, (Datum) BoolGetDatum(exclusive));
    {
-       bool gotUniqueStartpoint = false;
+       bool        gotUniqueStartpoint = false;
+
        do
        {
            /*
             * Force a CHECKPOINT.  Aside from being necessary to prevent torn
-            * page problems, this guarantees that two successive backup runs will
-            * have different checkpoint positions and hence different history
-            * file names, even if nothing happened in between.
+            * page problems, this guarantees that two successive backup runs
+            * will have different checkpoint positions and hence different
+            * history file names, even if nothing happened in between.
             *
-            * We use CHECKPOINT_IMMEDIATE only if requested by user (via passing
-            * fast = true).  Otherwise this can take awhile.
+            * We use CHECKPOINT_IMMEDIATE only if requested by user (via
+            * passing fast = true).  Otherwise this can take awhile.
             */
            RequestCheckpoint(CHECKPOINT_FORCE | CHECKPOINT_WAIT |
                              (fast ? CHECKPOINT_IMMEDIATE : 0));
 
            /*
-            * Now we need to fetch the checkpoint record location, and also its
-            * REDO pointer.  The oldest point in WAL that would be needed to
-            * restore starting from the checkpoint is precisely the REDO pointer.
+            * Now we need to fetch the checkpoint record location, and also
+            * its REDO pointer.  The oldest point in WAL that would be needed
+            * to restore starting from the checkpoint is precisely the REDO
+            * pointer.
             */
            LWLockAcquire(ControlFileLock, LW_SHARED);
            checkpointloc = ControlFile->checkPoint;
@@ -8923,16 +8928,15 @@ do_pg_start_backup(const char *backupidstr, bool fast, char **labelfile)
            LWLockRelease(ControlFileLock);
 
            /*
-            * If two base backups are started at the same time (in WAL
-            * sender processes), we need to make sure that they use
-            * different checkpoints as starting locations, because we use
-            * the starting WAL location as a unique identifier for the base
-            * backup in the end-of-backup WAL record and when we write the
-            * backup history file. Perhaps it would be better generate a
-            * separate unique ID for each backup instead of forcing another
-            * checkpoint, but taking a checkpoint right after another is
-            * not that expensive either because only few buffers have been
-            * dirtied yet.
+            * If two base backups are started at the same time (in WAL sender
+            * processes), we need to make sure that they use different
+            * checkpoints as starting locations, because we use the starting
+            * WAL location as a unique identifier for the base backup in the
+            * end-of-backup WAL record and when we write the backup history
+            * file. Perhaps it would be better generate a separate unique ID
+            * for each backup instead of forcing another checkpoint, but
+            * taking a checkpoint right after another is not that expensive
+            * either because only few buffers have been dirtied yet.
             */
            LWLockAcquire(WALInsertLock, LW_SHARED);
            if (XLByteLT(XLogCtl->Insert.lastBackupStart, startpoint))
@@ -8941,13 +8945,13 @@ do_pg_start_backup(const char *backupidstr, bool fast, char **labelfile)
                gotUniqueStartpoint = true;
            }
            LWLockRelease(WALInsertLock);
-       } while(!gotUniqueStartpoint);
+       } while (!gotUniqueStartpoint);
 
        XLByteToSeg(startpoint, _logId, _logSeg);
        XLogFileName(xlogfilename, ThisTimeLineID, _logId, _logSeg);
 
        /*
-        * Construct backup label file 
+        * Construct backup label file
         */
        initStringInfo(&labelfbuf);
 
@@ -8970,8 +8974,8 @@ do_pg_start_backup(const char *backupidstr, bool fast, char **labelfile)
        {
            /*
             * Check for existing backup label --- implies a backup is already
-            * running.  (XXX given that we checked exclusiveBackup above, maybe
-            * it would be OK to just unlink any such label file?)
+            * running.  (XXX given that we checked exclusiveBackup above,
+            * maybe it would be OK to just unlink any such label file?)
             */
            if (stat(BACKUP_LABEL_FILE, &stat_buf) != 0)
            {
@@ -9018,7 +9022,7 @@ do_pg_start_backup(const char *backupidstr, bool fast, char **labelfile)
 static void
 pg_start_backup_callback(int code, Datum arg)
 {
-   bool exclusive = DatumGetBool(arg);
+   bool        exclusive = DatumGetBool(arg);
 
    /* Update backup counters and forcePageWrites on failure */
    LWLockAcquire(WALInsertLock, LW_EXCLUSIVE);
@@ -9101,7 +9105,7 @@ do_pg_stop_backup(char *labelfile, bool waitforarchive)
    if (!superuser() && !is_authenticated_user_replication_role())
        ereport(ERROR,
                (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-                (errmsg("must be superuser or replication role to run a backup"))));
+        (errmsg("must be superuser or replication role to run a backup"))));
 
    if (RecoveryInProgress())
        ereport(ERROR,
@@ -9145,8 +9149,8 @@ do_pg_stop_backup(char *labelfile, bool waitforarchive)
        /*
         * Read the existing label file into memory.
         */
-       struct  stat statbuf;
-       int     r;
+       struct stat statbuf;
+       int         r;
 
        if (stat(BACKUP_LABEL_FILE, &statbuf))
        {
@@ -9197,7 +9201,7 @@ do_pg_stop_backup(char *labelfile, bool waitforarchive)
        ereport(ERROR,
                (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
                 errmsg("invalid data in file \"%s\"", BACKUP_LABEL_FILE)));
-   remaining = strchr(labelfile, '\n') + 1; /* %n is not portable enough */
+   remaining = strchr(labelfile, '\n') + 1;    /* %n is not portable enough */
 
    /*
     * Write the backup-end xlog record
@@ -9388,8 +9392,8 @@ pg_switch_xlog(PG_FUNCTION_ARGS)
 Datum
 pg_create_restore_point(PG_FUNCTION_ARGS)
 {
-   text        *restore_name = PG_GETARG_TEXT_P(0);
-   char        *restore_name_str;
+   text       *restore_name = PG_GETARG_TEXT_P(0);
+   char       *restore_name_str;
    XLogRecPtr  restorepoint;
    char        location[MAXFNAMELEN];
 
@@ -9407,7 +9411,7 @@ pg_create_restore_point(PG_FUNCTION_ARGS)
    if (!XLogIsNeeded())
        ereport(ERROR,
                (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
-             errmsg("WAL level not sufficient for creating a restore point"),
+            errmsg("WAL level not sufficient for creating a restore point"),
                 errhint("wal_level must be set to \"archive\" or \"hot_standby\" at server start.")));
 
    restore_name_str = text_to_cstring(restore_name);
@@ -9423,7 +9427,7 @@ pg_create_restore_point(PG_FUNCTION_ARGS)
     * As a convenience, return the WAL location of the restore point record
     */
    snprintf(location, sizeof(location), "%X/%X",
-           restorepoint.xlogid, restorepoint.xrecoff);
+            restorepoint.xlogid, restorepoint.xrecoff);
    PG_RETURN_TEXT_P(cstring_to_text(location));
 }
 
@@ -10177,8 +10181,8 @@ retry:
                        }
 
                        /*
-                        * If it hasn't been long since last attempt, sleep
-                        * to avoid busy-waiting.
+                        * If it hasn't been long since last attempt, sleep to
+                        * avoid busy-waiting.
                         */
                        now = (pg_time_t) time(NULL);
                        if ((now - last_fail_time) < 5)
@@ -10404,7 +10408,7 @@ static bool
 CheckForStandbyTrigger(void)
 {
    struct stat stat_buf;
-   static bool triggered = false;
+   static bool triggered = false;
 
    if (triggered)
        return true;
@@ -10446,8 +10450,8 @@ CheckPromoteSignal(void)
    if (stat(PROMOTE_SIGNAL_FILE, &stat_buf) == 0)
    {
        /*
-        * Since we are in a signal handler, it's not safe
-        * to elog. We silently ignore any error from unlink.
+        * Since we are in a signal handler, it's not safe to elog. We
+        * silently ignore any error from unlink.
         */
        unlink(PROMOTE_SIGNAL_FILE);
        return true;
index aa3d59d4c9a31fbdebd07e1e62785f9f8d22d30d..693b6343984bbe5f5573f2c6e9e9c28a30c5210b 100644 (file)
@@ -1011,8 +1011,8 @@ SetDefaultACLsInSchemas(InternalDefaultACL *iacls, List *nspnames)
 
            /*
             * Note that we must do the permissions check against the target
-            * role not the calling user.  We require CREATE privileges,
-            * since without CREATE you won't be able to do anything using the
+            * role not the calling user.  We require CREATE privileges, since
+            * without CREATE you won't be able to do anything using the
             * default privs anyway.
             */
            iacls->nspid = get_namespace_oid(nspname, false);
@@ -1707,7 +1707,7 @@ ExecGrant_Relation(InternalGrant *istmt)
            pg_class_tuple->relkind != RELKIND_FOREIGN_TABLE)
            ereport(ERROR,
                    (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-                   errmsg("\"%s\" is not a foreign table",
+                    errmsg("\"%s\" is not a foreign table",
                            NameStr(pg_class_tuple->relname))));
 
        /* Adjust the default permissions based on object type */
@@ -1964,13 +1964,13 @@ ExecGrant_Relation(InternalGrant *istmt)
                this_privileges &= (AclMode) ACL_SELECT;
            }
            else if (pg_class_tuple->relkind == RELKIND_FOREIGN_TABLE &&
-               this_privileges & ~((AclMode) ACL_SELECT))
+                    this_privileges & ~((AclMode) ACL_SELECT))
            {
                /* Foreign tables have the same restriction as sequences. */
                ereport(WARNING,
-                   (errcode(ERRCODE_INVALID_GRANT_OPERATION),
-                    errmsg("foreign table \"%s\" only supports SELECT column privileges",
-                           NameStr(pg_class_tuple->relname))));
+                       (errcode(ERRCODE_INVALID_GRANT_OPERATION),
+                        errmsg("foreign table \"%s\" only supports SELECT column privileges",
+                               NameStr(pg_class_tuple->relname))));
                this_privileges &= (AclMode) ACL_SELECT;
            }
 
@@ -4768,7 +4768,7 @@ pg_extension_ownercheck(Oid ext_oid, Oid roleid)
  * Note: roles do not have owners per se; instead we use this test in
  * places where an ownership-like permissions test is needed for a role.
  * Be sure to apply it to the role trying to do the operation, not the
- * role being operated on!  Also note that this generally should not be
+ * role being operated on! Also note that this generally should not be
  * considered enough privilege if the target role is a superuser.
  * (We don't handle that consideration here because we want to give a
  * separate error message for such cases, so the caller has to deal with it.)
index 12935754bc191f33d6219e213f2e19c1af04b0af..cbce0072de190e5c79d101cd1f1b1995b9ee2220 100644 (file)
@@ -80,11 +80,11 @@ forkname_to_number(char *forkName)
 
 /*
  * forkname_chars
- *         We use this to figure out whether a filename could be a relation
- *         fork (as opposed to an oddly named stray file that somehow ended
- *         up in the database directory).  If the passed string begins with
- *         a fork name (other than the main fork name), we return its length,
- *     and set *fork (if not NULL) to the fork number.  If not, we return 0.
+ *     We use this to figure out whether a filename could be a relation
+ *     fork (as opposed to an oddly named stray file that somehow ended
+ *     up in the database directory).  If the passed string begins with
+ *     a fork name (other than the main fork name), we return its length,
+ *     and set *fork (if not NULL) to the fork number.  If not, we return 0.
  *
  * Note that the present coding assumes that there are no fork names which
  * are prefixes of other fork names.
@@ -96,7 +96,8 @@ forkname_chars(const char *str, ForkNumber *fork)
 
    for (forkNum = 1; forkNum <= MAX_FORKNUM; forkNum++)
    {
-       int len = strlen(forkNames[forkNum]);
+       int         len = strlen(forkNames[forkNum]);
+
        if (strncmp(forkNames[forkNum], str, len) == 0)
        {
            if (fork)
@@ -150,7 +151,7 @@ relpathbackend(RelFileNode rnode, BackendId backend, ForkNumber forknum)
        {
            /* OIDCHARS will suffice for an integer, too */
            pathlen = 5 + OIDCHARS + 2 + OIDCHARS + 1 + OIDCHARS + 1
-                   + FORKNAMECHARS + 1;
+               + FORKNAMECHARS + 1;
            path = (char *) palloc(pathlen);
            if (forknum != MAIN_FORKNUM)
                snprintf(path, pathlen, "base/%u/t%d_%u_%s",
@@ -167,8 +168,8 @@ relpathbackend(RelFileNode rnode, BackendId backend, ForkNumber forknum)
        if (backend == InvalidBackendId)
        {
            pathlen = 9 + 1 + OIDCHARS + 1
-                   + strlen(TABLESPACE_VERSION_DIRECTORY) + 1 + OIDCHARS + 1
-                   + OIDCHARS + 1 + FORKNAMECHARS + 1;
+               + strlen(TABLESPACE_VERSION_DIRECTORY) + 1 + OIDCHARS + 1
+               + OIDCHARS + 1 + FORKNAMECHARS + 1;
            path = (char *) palloc(pathlen);
            if (forknum != MAIN_FORKNUM)
                snprintf(path, pathlen, "pg_tblspc/%u/%s/%u/%u_%s",
@@ -184,8 +185,8 @@ relpathbackend(RelFileNode rnode, BackendId backend, ForkNumber forknum)
        {
            /* OIDCHARS will suffice for an integer, too */
            pathlen = 9 + 1 + OIDCHARS + 1
-                   + strlen(TABLESPACE_VERSION_DIRECTORY) + 1 + OIDCHARS + 2
-                   + OIDCHARS + 1 + OIDCHARS + 1 + FORKNAMECHARS + 1;
+               + strlen(TABLESPACE_VERSION_DIRECTORY) + 1 + OIDCHARS + 2
+               + OIDCHARS + 1 + OIDCHARS + 1 + FORKNAMECHARS + 1;
            path = (char *) palloc(pathlen);
            if (forknum != MAIN_FORKNUM)
                snprintf(path, pathlen, "pg_tblspc/%u/%s/%u/t%d_%u_%s",
index de24ef7a094c66f4cdd1e1549ec6f5006ca5b39e..ec9bb48c638946775a5d9fe9c6ca44997cc43c2d 100644 (file)
@@ -160,7 +160,7 @@ static const Oid object_classes[MAX_OCLASS] = {
    ForeignServerRelationId,    /* OCLASS_FOREIGN_SERVER */
    UserMappingRelationId,      /* OCLASS_USER_MAPPING */
    DefaultAclRelationId,       /* OCLASS_DEFACL */
-   ExtensionRelationId         /* OCLASS_EXTENSION */
+   ExtensionRelationId         /* OCLASS_EXTENSION */
 };
 
 
@@ -1021,8 +1021,8 @@ deleteOneObject(const ObjectAddress *object, Relation depRel)
 
    /*
     * Delete any comments or security labels associated with this object.
-    * (This is a convenient place to do these things, rather than having every
-    * object type know to do it.)
+    * (This is a convenient place to do these things, rather than having
+    * every object type know to do it.)
     */
    DeleteComments(object->objectId, object->classId, object->objectSubId);
    DeleteSecurityLabel(object);
@@ -1263,7 +1263,7 @@ recordDependencyOnExpr(const ObjectAddress *depender,
  * whereas 'behavior' is used for everything else.
  *
  * NOTE: the caller should ensure that a whole-table dependency on the
- * specified relation is created separately, if one is needed.  In particular,
+ * specified relation is created separately, if one is needed. In particular,
  * a whole-row Var "relation.*" will not cause this routine to emit any
  * dependency item.  This is appropriate behavior for subexpressions of an
  * ordinary query, so other cases need to cope as necessary.
@@ -1383,7 +1383,7 @@ find_expr_references_walker(Node *node,
 
        /*
         * A whole-row Var references no specific columns, so adds no new
-        * dependency.  (We assume that there is a whole-table dependency
+        * dependency.  (We assume that there is a whole-table dependency
         * arising from each underlying rangetable entry.  While we could
         * record such a dependency when finding a whole-row Var that
         * references a relation directly, it's quite unclear how to extend
@@ -1431,8 +1431,8 @@ find_expr_references_walker(Node *node,
 
        /*
         * We must also depend on the constant's collation: it could be
-        * different from the datatype's, if a CollateExpr was const-folded
-        * to a simple constant.  However we can save work in the most common
+        * different from the datatype's, if a CollateExpr was const-folded to
+        * a simple constant.  However we can save work in the most common
         * case where the collation is "default", since we know that's pinned.
         */
        if (OidIsValid(con->constcollid) &&
@@ -1695,7 +1695,7 @@ find_expr_references_walker(Node *node,
                    }
                    foreach(ct, rte->funccolcollations)
                    {
-                       Oid collid = lfirst_oid(ct);
+                       Oid         collid = lfirst_oid(ct);
 
                        if (OidIsValid(collid) &&
                            collid != DEFAULT_COLLATION_OID)
@@ -2224,12 +2224,12 @@ getObjectDescription(const ObjectAddress *object)
                HeapTuple   collTup;
 
                collTup = SearchSysCache1(COLLOID,
-                                        ObjectIdGetDatum(object->objectId));
+                                         ObjectIdGetDatum(object->objectId));
                if (!HeapTupleIsValid(collTup))
                    elog(ERROR, "cache lookup failed for collation %u",
                         object->objectId);
                appendStringInfo(&buffer, _("collation %s"),
-                NameStr(((Form_pg_collation) GETSTRUCT(collTup))->collname));
+               NameStr(((Form_pg_collation) GETSTRUCT(collTup))->collname));
                ReleaseSysCache(collTup);
                break;
            }
@@ -2796,7 +2796,7 @@ getObjectDescription(const ObjectAddress *object)
 char *
 getObjectDescriptionOids(Oid classid, Oid objid)
 {
-   ObjectAddress   address;
+   ObjectAddress address;
 
    address.classId = classid;
    address.objectId = objid;
index 5d25ce9ec88f82e9c6da5e6e3b13f5b16773ad1c..09b26a5c724066e6c2c39f686953b771e22f7741 100644 (file)
@@ -431,7 +431,7 @@ CheckAttributeNamesTypes(TupleDesc tupdesc, char relkind,
        CheckAttributeType(NameStr(tupdesc->attrs[i]->attname),
                           tupdesc->attrs[i]->atttypid,
                           tupdesc->attrs[i]->attcollation,
-                          NIL, /* assume we're creating a new rowtype */
+                          NIL, /* assume we're creating a new rowtype */
                           allow_system_table_mods);
    }
 }
@@ -497,7 +497,7 @@ CheckAttributeType(const char *attname,
        int         i;
 
        /*
-        * Check for self-containment.  Eventually we might be able to allow
+        * Check for self-containment.  Eventually we might be able to allow
         * this (just return without complaint, if so) but it's not clear how
         * many other places would require anti-recursion defenses before it
         * would be safe to allow tables to contain their own rowtype.
@@ -505,8 +505,8 @@ CheckAttributeType(const char *attname,
        if (list_member_oid(containing_rowtypes, atttypid))
            ereport(ERROR,
                    (errcode(ERRCODE_INVALID_TABLE_DEFINITION),
-                    errmsg("composite type %s cannot be made a member of itself",
-                           format_type_be(atttypid))));
+               errmsg("composite type %s cannot be made a member of itself",
+                      format_type_be(atttypid))));
 
        containing_rowtypes = lcons_oid(atttypid, containing_rowtypes);
 
@@ -541,15 +541,15 @@ CheckAttributeType(const char *attname,
    }
 
    /*
-    * This might not be strictly invalid per SQL standard, but it is
-    * pretty useless, and it cannot be dumped, so we must disallow it.
+    * This might not be strictly invalid per SQL standard, but it is pretty
+    * useless, and it cannot be dumped, so we must disallow it.
     */
    if (!OidIsValid(attcollation) && type_is_collatable(atttypid))
-           ereport(ERROR,
-                   (errcode(ERRCODE_INVALID_TABLE_DEFINITION),
-                    errmsg("no collation was derived for column \"%s\" with collatable type %s",
-                           attname, format_type_be(atttypid)),
-                    errhint("Use the COLLATE clause to set the collation explicitly.")));
+       ereport(ERROR,
+               (errcode(ERRCODE_INVALID_TABLE_DEFINITION),
+                errmsg("no collation was derived for column \"%s\" with collatable type %s",
+                       attname, format_type_be(atttypid)),
+       errhint("Use the COLLATE clause to set the collation explicitly.")));
 }
 
 /*
@@ -921,7 +921,7 @@ AddNewRelationType(const char *typeName,
                   -1,          /* typmod */
                   0,           /* array dimensions for typBaseType */
                   false,       /* Type NOT NULL */
-                  InvalidOid); /* typcollation */
+                  InvalidOid); /* typcollation */
 }
 
 /* --------------------------------
@@ -992,9 +992,9 @@ heap_create_with_catalog(const char *relname,
    CheckAttributeNamesTypes(tupdesc, relkind, allow_system_table_mods);
 
    /*
-    * If the relation already exists, it's an error, unless the user specifies
-    * "IF NOT EXISTS".  In that case, we just print a notice and do nothing
-    * further.
+    * If the relation already exists, it's an error, unless the user
+    * specifies "IF NOT EXISTS".  In that case, we just print a notice and do
+    * nothing further.
     */
    existing_relid = get_relname_relid(relname, relnamespace);
    if (existing_relid != InvalidOid)
@@ -1004,7 +1004,7 @@ heap_create_with_catalog(const char *relname,
            ereport(NOTICE,
                    (errcode(ERRCODE_DUPLICATE_TABLE),
                     errmsg("relation \"%s\" already exists, skipping",
-                    relname)));
+                           relname)));
            heap_close(pg_class_desc, RowExclusiveLock);
            return InvalidOid;
        }
@@ -1048,8 +1048,8 @@ heap_create_with_catalog(const char *relname,
    if (!OidIsValid(relid))
    {
        /*
-        *  Use binary-upgrade override for pg_class.oid/relfilenode,
-        *  if supplied.
+        * Use binary-upgrade override for pg_class.oid/relfilenode, if
+        * supplied.
         */
        if (OidIsValid(binary_upgrade_next_heap_pg_class_oid) &&
            (relkind == RELKIND_RELATION || relkind == RELKIND_SEQUENCE ||
@@ -1183,7 +1183,7 @@ heap_create_with_catalog(const char *relname,
                   -1,          /* typmod */
                   0,           /* array dimensions for typBaseType */
                   false,       /* Type NOT NULL */
-                  InvalidOid); /* typcollation */
+                  InvalidOid); /* typcollation */
 
        pfree(relarrayname);
    }
@@ -1285,12 +1285,12 @@ heap_create_with_catalog(const char *relname,
        register_on_commit_action(relid, oncommit);
 
    /*
-    * If this is an unlogged relation, it needs an init fork so that it
-    * can be correctly reinitialized on restart.  Since we're going to
-    * do an immediate sync, we ony need to xlog this if archiving or
-    * streaming is enabled.  And the immediate sync is required, because
-    * otherwise there's no guarantee that this will hit the disk before
-    * the next checkpoint moves the redo pointer.
+    * If this is an unlogged relation, it needs an init fork so that it can
+    * be correctly reinitialized on restart.  Since we're going to do an
+    * immediate sync, we ony need to xlog this if archiving or streaming is
+    * enabled.  And the immediate sync is required, because otherwise there's
+    * no guarantee that this will hit the disk before the next checkpoint
+    * moves the redo pointer.
     */
    if (relpersistence == RELPERSISTENCE_UNLOGGED)
    {
@@ -1654,8 +1654,8 @@ heap_drop_with_catalog(Oid relid)
 
    /*
     * There can no longer be anyone *else* touching the relation, but we
-    * might still have open queries or cursors, or pending trigger events,
-    * in our own session.
+    * might still have open queries or cursors, or pending trigger events, in
+    * our own session.
     */
    CheckTableNotInUse(rel, "DROP TABLE");
 
@@ -1664,8 +1664,8 @@ heap_drop_with_catalog(Oid relid)
     */
    if (rel->rd_rel->relkind == RELKIND_FOREIGN_TABLE)
    {
-       Relation    rel;
-       HeapTuple   tuple;
+       Relation    rel;
+       HeapTuple   tuple;
 
        rel = heap_open(ForeignTableRelationId, RowExclusiveLock);
 
@@ -1899,7 +1899,7 @@ StoreRelCheck(Relation rel, char *ccname, Node *expr,
                          CONSTRAINT_CHECK,     /* Constraint Type */
                          false,    /* Is Deferrable */
                          false,    /* Is Deferred */
-                         true,     /* Is Validated */
+                         true, /* Is Validated */
                          RelationGetRelid(rel),        /* relation */
                          attNos,       /* attrs in the constraint */
                          keycount,     /* # attrs in the constraint */
index 679255a199bfc1e13b4bc46068cd0ad8d77b9462..1bf74b3d4fa664abf012917d66fa68af3d0fa70a 100644 (file)
@@ -187,18 +187,18 @@ index_check_primary_key(Relation heapRel,
    int         i;
 
    /*
-    * If ALTER TABLE, check that there isn't already a PRIMARY KEY. In
-    * CREATE TABLE, we have faith that the parser rejected multiple pkey
-    * clauses; and CREATE INDEX doesn't have a way to say PRIMARY KEY, so
-    * it's no problem either.
+    * If ALTER TABLE, check that there isn't already a PRIMARY KEY. In CREATE
+    * TABLE, we have faith that the parser rejected multiple pkey clauses;
+    * and CREATE INDEX doesn't have a way to say PRIMARY KEY, so it's no
+    * problem either.
     */
    if (is_alter_table &&
        relationHasPrimaryKey(heapRel))
    {
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_TABLE_DEFINITION),
-                errmsg("multiple primary keys for table \"%s\" are not allowed",
-                       RelationGetRelationName(heapRel))));
+            errmsg("multiple primary keys for table \"%s\" are not allowed",
+                   RelationGetRelationName(heapRel))));
    }
 
    /*
@@ -222,7 +222,7 @@ index_check_primary_key(Relation heapRel,
            continue;
 
        atttuple = SearchSysCache2(ATTNUM,
-                                  ObjectIdGetDatum(RelationGetRelid(heapRel)),
+                                ObjectIdGetDatum(RelationGetRelid(heapRel)),
                                   Int16GetDatum(attnum));
        if (!HeapTupleIsValid(atttuple))
            elog(ERROR, "cache lookup failed for attribute %d of relation %u",
@@ -243,15 +243,14 @@ index_check_primary_key(Relation heapRel,
    }
 
    /*
-    * XXX: Shouldn't the ALTER TABLE .. SET NOT NULL cascade to child
-    * tables?  Currently, since the PRIMARY KEY itself doesn't cascade,
-    * we don't cascade the notnull constraint(s) either; but this is
-    * pretty debatable.
+    * XXX: Shouldn't the ALTER TABLE .. SET NOT NULL cascade to child tables?
+    * Currently, since the PRIMARY KEY itself doesn't cascade, we don't
+    * cascade the notnull constraint(s) either; but this is pretty debatable.
     *
-    * XXX: possible future improvement: when being called from ALTER
-    * TABLE, it would be more efficient to merge this with the outer
-    * ALTER TABLE, so as to avoid two scans.  But that seems to
-    * complicate DefineIndex's API unduly.
+    * XXX: possible future improvement: when being called from ALTER TABLE,
+    * it would be more efficient to merge this with the outer ALTER TABLE, so
+    * as to avoid two scans.  But that seems to complicate DefineIndex's API
+    * unduly.
     */
    if (cmds)
        AlterTableInternal(RelationGetRelid(heapRel), cmds, false);
@@ -788,8 +787,8 @@ index_create(Relation heapRelation,
    if (!OidIsValid(indexRelationId))
    {
        /*
-        *  Use binary-upgrade override for pg_class.oid/relfilenode,
-        *  if supplied.
+        * Use binary-upgrade override for pg_class.oid/relfilenode, if
+        * supplied.
         */
        if (OidIsValid(binary_upgrade_next_index_pg_class_oid))
        {
@@ -872,7 +871,7 @@ index_create(Relation heapRelation,
     * ----------------
     */
    UpdateIndexRelation(indexRelationId, heapRelationId, indexInfo,
-                       collationObjectId, classObjectId, coloptions, isprimary, is_exclusion,
+      collationObjectId, classObjectId, coloptions, isprimary, is_exclusion,
                        !deferrable,
                        !concurrent);
 
@@ -947,7 +946,7 @@ index_create(Relation heapRelation,
 
            /*
             * If there are no simply-referenced columns, give the index an
-            * auto dependency on the whole table.  In most cases, this will
+            * auto dependency on the whole table.  In most cases, this will
             * be redundant, but it might not be if the index expressions and
             * predicate contain no Vars or only whole-row Vars.
             */
@@ -1067,7 +1066,7 @@ index_create(Relation heapRelation,
 
    /*
     * Close the index; but we keep the lock that we acquired above until end
-    * of transaction.  Closing the heap is caller's responsibility.
+    * of transaction.  Closing the heap is caller's responsibility.
     */
    index_close(indexRelation, NoLock);
 
@@ -1176,8 +1175,8 @@ index_constraint_create(Relation heapRelation,
 
    /*
     * If the constraint is deferrable, create the deferred uniqueness
-    * checking trigger.  (The trigger will be given an internal
-    * dependency on the constraint by CreateTrigger.)
+    * checking trigger.  (The trigger will be given an internal dependency on
+    * the constraint by CreateTrigger.)
     */
    if (deferrable)
    {
@@ -1213,7 +1212,7 @@ index_constraint_create(Relation heapRelation,
     * have been so marked already, so no need to clear the flag in the other
     * case.
     *
-    * Note: this might better be done by callers.  We do it here to avoid
+    * Note: this might better be done by callers.  We do it here to avoid
     * exposing index_update_stats() globally, but that wouldn't be necessary
     * if relhaspkey went away.
     */
@@ -1235,10 +1234,10 @@ index_constraint_create(Relation heapRelation,
     */
    if (update_pgindex && (mark_as_primary || deferrable))
    {
-       Relation        pg_index;
-       HeapTuple       indexTuple;
-       Form_pg_index   indexForm;
-       bool            dirty = false;
+       Relation    pg_index;
+       HeapTuple   indexTuple;
+       Form_pg_index indexForm;
+       bool        dirty = false;
 
        pg_index = heap_open(IndexRelationId, RowExclusiveLock);
 
@@ -1303,8 +1302,8 @@ index_drop(Oid indexId)
    userIndexRelation = index_open(indexId, AccessExclusiveLock);
 
    /*
-    * There can no longer be anyone *else* touching the index, but we
-    * might still have open queries using it in our own session.
+    * There can no longer be anyone *else* touching the index, but we might
+    * still have open queries using it in our own session.
     */
    CheckTableNotInUse(userIndexRelation, "DROP INDEX");
 
@@ -1739,7 +1738,8 @@ index_build(Relation heapRelation,
     */
    if (heapRelation->rd_rel->relpersistence == RELPERSISTENCE_UNLOGGED)
    {
-       RegProcedure    ambuildempty = indexRelation->rd_am->ambuildempty;
+       RegProcedure ambuildempty = indexRelation->rd_am->ambuildempty;
+
        RelationOpenSmgr(indexRelation);
        smgrcreate(indexRelation->rd_smgr, INIT_FORKNUM, false);
        OidFunctionCall1(ambuildempty, PointerGetDatum(indexRelation));
@@ -2410,7 +2410,7 @@ validate_index(Oid heapId, Oid indexId, Snapshot snapshot)
    ivinfo.strategy = NULL;
 
    state.tuplesort = tuplesort_begin_datum(TIDOID,
-                                           TIDLessOperator, InvalidOid, false,
+                                         TIDLessOperator, InvalidOid, false,
                                            maintenance_work_mem,
                                            false);
    state.htups = state.itups = state.tups_inserted = 0;
@@ -2834,7 +2834,7 @@ reindex_index(Oid indexId, bool skip_constraint_checks)
  * use catalog indexes while collecting the list.)
  *
  * To avoid deadlocks, VACUUM FULL or CLUSTER on a system catalog must omit the
- * REINDEX_CHECK_CONSTRAINTS flag.  REINDEX should be used to rebuild an index
+ * REINDEX_CHECK_CONSTRAINTS flag. REINDEX should be used to rebuild an index
  * if constraint inconsistency is suspected.  For optimal performance, other
  * callers should include the flag only after transforming the data in a manner
  * that risks a change in constraint validity.
index 734581e48557dcd72e8e7796729f344d00afd9ce..f8fd8276936a687e97655147845e4d4f9fa2f495 100644 (file)
@@ -2446,10 +2446,10 @@ CheckSetNamespace(Oid oldNspOid, Oid nspOid, Oid classid, Oid objid)
    if (oldNspOid == nspOid)
        ereport(ERROR,
                (classid == RelationRelationId ?
-                   errcode(ERRCODE_DUPLICATE_TABLE) :
+                errcode(ERRCODE_DUPLICATE_TABLE) :
                 classid == ProcedureRelationId ?
-                   errcode(ERRCODE_DUPLICATE_FUNCTION) :
-                   errcode(ERRCODE_DUPLICATE_OBJECT),
+                errcode(ERRCODE_DUPLICATE_FUNCTION) :
+                errcode(ERRCODE_DUPLICATE_OBJECT),
                 errmsg("%s is already in schema \"%s\"",
                        getObjectDescriptionOids(classid, objid),
                        get_namespace_name(nspOid))));
@@ -2458,7 +2458,7 @@ CheckSetNamespace(Oid oldNspOid, Oid nspOid, Oid classid, Oid objid)
    if (isAnyTempNamespace(nspOid) || isAnyTempNamespace(oldNspOid))
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("cannot move objects into or out of temporary schemas")));
+           errmsg("cannot move objects into or out of temporary schemas")));
 
    /* same for TOAST schema */
    if (nspOid == PG_TOAST_NAMESPACE || oldNspOid == PG_TOAST_NAMESPACE)
@@ -2525,7 +2525,7 @@ QualifiedNameGetCreationNamespace(List *names, char **objname_p)
 /*
  * get_namespace_oid - given a namespace name, look up the OID
  *
- * If missing_ok is false, throw an error if namespace name not found.  If
+ * If missing_ok is false, throw an error if namespace name not found. If
  * true, just return InvalidOid.
  */
 Oid
@@ -2535,9 +2535,9 @@ get_namespace_oid(const char *nspname, bool missing_ok)
 
    oid = GetSysCacheOid1(NAMESPACENAME, CStringGetDatum(nspname));
    if (!OidIsValid(oid) && !missing_ok)
-        ereport(ERROR,
-                (errcode(ERRCODE_UNDEFINED_SCHEMA),
-                 errmsg("schema \"%s\" does not exist", nspname)));
+       ereport(ERROR,
+               (errcode(ERRCODE_UNDEFINED_SCHEMA),
+                errmsg("schema \"%s\" does not exist", nspname)));
 
    return oid;
 }
@@ -2727,7 +2727,7 @@ GetTempNamespaceBackendId(Oid namespaceId)
    /* See if the namespace name starts with "pg_temp_" or "pg_toast_temp_" */
    nspname = get_namespace_name(namespaceId);
    if (!nspname)
-       return InvalidBackendId;                /* no such namespace? */
+       return InvalidBackendId;    /* no such namespace? */
    if (strncmp(nspname, "pg_temp_", 8) == 0)
        result = atoi(nspname + 8);
    else if (strncmp(nspname, "pg_toast_temp_", 14) == 0)
@@ -2798,8 +2798,8 @@ GetOverrideSearchPath(MemoryContext context)
  *
  * It's possible that newpath->useTemp is set but there is no longer any
  * active temp namespace, if the path was saved during a transaction that
- * created a temp namespace and was later rolled back.  In that case we just
- * ignore useTemp.  A plausible alternative would be to create a new temp
+ * created a temp namespace and was later rolled back. In that case we just
+ * ignore useTemp. A plausible alternative would be to create a new temp
  * namespace, but for existing callers that's not necessary because an empty
  * temp namespace wouldn't affect their results anyway.
  *
@@ -3522,7 +3522,7 @@ check_search_path(char **newval, void **extra, GucSource source)
                if (source == PGC_S_TEST)
                    ereport(NOTICE,
                            (errcode(ERRCODE_UNDEFINED_SCHEMA),
-                            errmsg("schema \"%s\" does not exist", curname)));
+                          errmsg("schema \"%s\" does not exist", curname)));
                else
                {
                    GUC_check_errdetail("schema \"%s\" does not exist", curname);
index 0d21d310a650a3b1f01cc4c554e4e6ac06b63fba..bf25091582ff2be7bb6239c150c495065c00ceed 100644 (file)
@@ -78,7 +78,7 @@ static Relation get_relation_by_qualified_name(ObjectType objtype,
 static ObjectAddress get_object_address_relobject(ObjectType objtype,
                             List *objname, Relation *relp);
 static ObjectAddress get_object_address_attribute(ObjectType objtype,
-                            List *objname, Relation *relp, LOCKMODE lockmode);
+                          List *objname, Relation *relp, LOCKMODE lockmode);
 static ObjectAddress get_object_address_opcf(ObjectType objtype, List *objname,
                        List *objargs);
 static bool object_exists(ObjectAddress address);
@@ -108,8 +108,8 @@ ObjectAddress
 get_object_address(ObjectType objtype, List *objname, List *objargs,
                   Relation *relp, LOCKMODE lockmode)
 {
-   ObjectAddress   address;
-   Relation        relation = NULL;
+   ObjectAddress address;
+   Relation    relation = NULL;
 
    /* Some kind of lock must be taken. */
    Assert(lockmode != NoLock);
@@ -130,7 +130,7 @@ get_object_address(ObjectType objtype, List *objname, List *objargs,
        case OBJECT_COLUMN:
            address =
                get_object_address_attribute(objtype, objname, &relation,
-                   lockmode);
+                                            lockmode);
            break;
        case OBJECT_RULE:
        case OBJECT_TRIGGER:
@@ -201,10 +201,10 @@ get_object_address(ObjectType objtype, List *objname, List *objargs,
            break;
        case OBJECT_CAST:
            {
-               TypeName *sourcetype = (TypeName *) linitial(objname);
-               TypeName *targettype = (TypeName *) linitial(objargs);
-               Oid sourcetypeid = typenameTypeId(NULL, sourcetype);
-               Oid targettypeid = typenameTypeId(NULL, targettype);
+               TypeName   *sourcetype = (TypeName *) linitial(objname);
+               TypeName   *targettype = (TypeName *) linitial(objargs);
+               Oid         sourcetypeid = typenameTypeId(NULL, sourcetype);
+               Oid         targettypeid = typenameTypeId(NULL, targettype);
 
                address.classId = CastRelationId;
                address.objectId =
@@ -242,8 +242,8 @@ get_object_address(ObjectType objtype, List *objname, List *objargs,
 
    /*
     * If we're dealing with a relation or attribute, then the relation is
-    * already locked.  If we're dealing with any other type of object, we need
-    * to lock it and then verify that it still exists.
+    * already locked.  If we're dealing with any other type of object, we
+    * need to lock it and then verify that it still exists.
     */
    if (address.classId != RelationRelationId)
    {
@@ -308,7 +308,7 @@ get_object_address_unqualified(ObjectType objtype, List *qualname)
                break;
            default:
                elog(ERROR, "unrecognized objtype: %d", (int) objtype);
-               msg = NULL;         /* placate compiler */
+               msg = NULL;     /* placate compiler */
        }
        ereport(ERROR,
                (errcode(ERRCODE_SYNTAX_ERROR),
@@ -379,7 +379,7 @@ static Relation
 get_relation_by_qualified_name(ObjectType objtype, List *objname,
                               LOCKMODE lockmode)
 {
-   Relation relation;
+   Relation    relation;
 
    relation = relation_openrv(makeRangeVarFromNameList(objname), lockmode);
    switch (objtype)
@@ -449,7 +449,7 @@ get_object_address_relobject(ObjectType objtype, List *objname, Relation *relp)
    nnames = list_length(objname);
    if (nnames < 2)
    {
-       Oid     reloid;
+       Oid         reloid;
 
        /*
         * For compatibility with very old releases, we sometimes allow users
@@ -514,7 +514,7 @@ static ObjectAddress
 get_object_address_attribute(ObjectType objtype, List *objname,
                             Relation *relp, LOCKMODE lockmode)
 {
-   ObjectAddress   address;
+   ObjectAddress address;
    List       *relname;
    Oid         reloid;
    Relation    relation;
@@ -534,7 +534,7 @@ get_object_address_attribute(ObjectType objtype, List *objname,
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_COLUMN),
                 errmsg("column \"%s\" of relation \"%s\" does not exist",
-                attname, RelationGetRelationName(relation))));
+                       attname, RelationGetRelationName(relation))));
 
    *relp = relation;
    return address;
@@ -584,8 +584,8 @@ object_exists(ObjectAddress address)
    int         cache = -1;
    Oid         indexoid = InvalidOid;
    Relation    rel;
-   ScanKeyData skey[1];
-   SysScanDesc sd;
+   ScanKeyData skey[1];
+   SysScanDesc sd;
    bool        found;
 
    /* Sub-objects require special treatment. */
@@ -609,9 +609,9 @@ object_exists(ObjectAddress address)
 
    /*
     * For object types that have a relevant syscache, we use it; for
-    * everything else, we'll have to do an index-scan.  This switch
-    * sets either the cache to be used for the syscache lookup, or the
-    * index to be used for the index scan.
+    * everything else, we'll have to do an index-scan.  This switch sets
+    * either the cache to be used for the syscache lookup, or the index to be
+    * used for the index scan.
     */
    switch (address.classId)
    {
@@ -664,6 +664,7 @@ object_exists(ObjectAddress address)
            cache = OPFAMILYOID;
            break;
        case LargeObjectRelationId:
+
            /*
             * Weird backward compatibility hack: ObjectAddress notation uses
             * LargeObjectRelationId for large objects, but since PostgreSQL
@@ -816,15 +817,15 @@ check_object_ownership(Oid roleid, ObjectType objtype, ObjectAddress address,
                ereport(ERROR,
                        (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
                         errmsg("must be owner of large object %u",
-                           address.objectId)));
+                               address.objectId)));
            break;
        case OBJECT_CAST:
            {
                /* We can only check permissions on the source/target types */
-               TypeName *sourcetype = (TypeName *) linitial(objname);
-               TypeName *targettype = (TypeName *) linitial(objargs);
-               Oid sourcetypeid = typenameTypeId(NULL, sourcetype);
-               Oid targettypeid = typenameTypeId(NULL, targettype);
+               TypeName   *sourcetype = (TypeName *) linitial(objname);
+               TypeName   *targettype = (TypeName *) linitial(objargs);
+               Oid         sourcetypeid = typenameTypeId(NULL, sourcetype);
+               Oid         targettypeid = typenameTypeId(NULL, targettype);
 
                if (!pg_type_ownercheck(sourcetypeid, roleid)
                    && !pg_type_ownercheck(targettypeid, roleid))
@@ -851,6 +852,7 @@ check_object_ownership(Oid roleid, ObjectType objtype, ObjectAddress address,
                               NameListToString(objname));
            break;
        case OBJECT_ROLE:
+
            /*
             * We treat roles as being "owned" by those with CREATEROLE priv,
             * except that superusers are only owned by superusers.
index 708078463ba79dbbd374da6b2a99b249fd75c169..5b92a4c0c2816d29d6e3379e6422b20a29b8743d 100644 (file)
@@ -46,7 +46,9 @@ CollationCreate(const char *collname, Oid collnamespace,
    HeapTuple   tup;
    Datum       values[Natts_pg_collation];
    bool        nulls[Natts_pg_collation];
-   NameData    name_name, name_collate, name_ctype;
+   NameData    name_name,
+               name_collate,
+               name_ctype;
    Oid         oid;
    ObjectAddress myself,
                referenced;
@@ -60,9 +62,9 @@ CollationCreate(const char *collname, Oid collnamespace,
    /*
     * Make sure there is no existing collation of same name & encoding.
     *
-    * This would be caught by the unique index anyway; we're just giving
-    * a friendlier error message.  The unique index provides a backstop
-    * against race conditions.
+    * This would be caught by the unique index anyway; we're just giving a
+    * friendlier error message.  The unique index provides a backstop against
+    * race conditions.
     */
    if (SearchSysCacheExists3(COLLNAMEENCNSP,
                              PointerGetDatum(collname),
@@ -74,9 +76,9 @@ CollationCreate(const char *collname, Oid collnamespace,
                        collname, pg_encoding_to_char(collencoding))));
 
    /*
-    * Also forbid matching an any-encoding entry.  This test of course is
-    * not backed up by the unique index, but it's not a problem since we
-    * don't support adding any-encoding entries after initdb.
+    * Also forbid matching an any-encoding entry.  This test of course is not
+    * backed up by the unique index, but it's not a problem since we don't
+    * support adding any-encoding entries after initdb.
     */
    if (SearchSysCacheExists3(COLLNAMEENCNSP,
                              PointerGetDatum(collname),
index 6619eed431c937caa7c0eae2fac188468fb5e2bb..69979942af42a00922fb4bce3ada1fa622dd2212 100644 (file)
@@ -799,10 +799,10 @@ get_constraint_oid(Oid relid, const char *conname, bool missing_ok)
  * the rel of interest are Vars with the indicated varno/varlevelsup.
  *
  * Currently we only check to see if the rel has a primary key that is a
- * subset of the grouping_columns.  We could also use plain unique constraints
+ * subset of the grouping_columns. We could also use plain unique constraints
  * if all their columns are known not null, but there's a problem: we need
  * to be able to represent the not-null-ness as part of the constraints added
- * to *constraintDeps.  FIXME whenever not-null constraints get represented
+ * to *constraintDeps. FIXME whenever not-null constraints get represented
  * in pg_constraint.
  */
 bool
@@ -852,7 +852,7 @@ check_functional_grouping(Oid relid,
        if (isNull)
            elog(ERROR, "null conkey for constraint %u",
                 HeapTupleGetOid(tuple));
-       arr = DatumGetArrayTypeP(adatum);   /* ensure not toasted */
+       arr = DatumGetArrayTypeP(adatum);       /* ensure not toasted */
        numkeys = ARR_DIMS(arr)[0];
        if (ARR_NDIM(arr) != 1 ||
            numkeys < 0 ||
index 2bb7bb3d5fa920b7690959d37126589b0ef9147d..67aad86d4e705aa398c0f7a1f709aebef4a7da43 100644 (file)
@@ -126,7 +126,7 @@ recordMultipleDependencies(const ObjectAddress *depender,
 
 /*
  * If we are executing a CREATE EXTENSION operation, mark the given object
- * as being a member of the extension.  Otherwise, do nothing.
+ * as being a member of the extension. Otherwise, do nothing.
  *
  * This must be called during creation of any user-definable object type
  * that could be a member of an extension.
@@ -136,7 +136,7 @@ recordDependencyOnCurrentExtension(const ObjectAddress *object)
 {
    if (creating_extension)
    {
-       ObjectAddress   extension;
+       ObjectAddress extension;
 
        extension.classId = ExtensionRelationId;
        extension.objectId = CurrentExtensionObject;
@@ -155,7 +155,7 @@ recordDependencyOnCurrentExtension(const ObjectAddress *object)
  * (possibly with some differences from before).
  *
  * If skipExtensionDeps is true, we do not delete any dependencies that
- * show that the given object is a member of an extension.  This avoids
+ * show that the given object is a member of an extension. This avoids
  * needing a lot of extra logic to fetch and recreate that dependency.
  */
 long
@@ -185,7 +185,7 @@ deleteDependencyRecordsFor(Oid classId, Oid objectId,
    while (HeapTupleIsValid(tup = systable_getnext(scan)))
    {
        if (skipExtensionDeps &&
-           ((Form_pg_depend) GETSTRUCT(tup))->deptype == DEPENDENCY_EXTENSION)
+         ((Form_pg_depend) GETSTRUCT(tup))->deptype == DEPENDENCY_EXTENSION)
            continue;
 
        simple_heap_delete(depRel, &tup->t_self);
index e87a9311bdd2dec32bac08239e5da9dd502ccf35..08d8aa13f332d6058572a51b4eff1d9871afed68 100644 (file)
@@ -29,7 +29,7 @@
 
 
 /* Potentially set by contrib/pg_upgrade_support functions */
-Oid      binary_upgrade_next_pg_enum_oid = InvalidOid;
+Oid            binary_upgrade_next_pg_enum_oid = InvalidOid;
 
 static void RenumberEnumType(Relation pg_enum, HeapTuple *existing, int nelems);
 static int oid_cmp(const void *p1, const void *p2);
@@ -58,9 +58,9 @@ EnumValuesCreate(Oid enumTypeOid, List *vals)
    num_elems = list_length(vals);
 
    /*
-    * We do not bother to check the list of values for duplicates --- if
-    * you have any, you'll get a less-than-friendly unique-index violation.
-    * It is probably not worth trying harder.
+    * We do not bother to check the list of values for duplicates --- if you
+    * have any, you'll get a less-than-friendly unique-index violation. It is
+    * probably not worth trying harder.
     */
 
    pg_enum = heap_open(EnumRelationId, RowExclusiveLock);
@@ -69,10 +69,9 @@ EnumValuesCreate(Oid enumTypeOid, List *vals)
     * Allocate OIDs for the enum's members.
     *
     * While this method does not absolutely guarantee that we generate no
-    * duplicate OIDs (since we haven't entered each oid into the table
-    * before allocating the next), trouble could only occur if the OID
-    * counter wraps all the way around before we finish. Which seems
-    * unlikely.
+    * duplicate OIDs (since we haven't entered each oid into the table before
+    * allocating the next), trouble could only occur if the OID counter wraps
+    * all the way around before we finish. Which seems unlikely.
     */
    oids = (Oid *) palloc(num_elems * sizeof(Oid));
 
@@ -83,9 +82,10 @@ EnumValuesCreate(Oid enumTypeOid, List *vals)
         * tells the comparison functions the OIDs are in the correct sort
         * order and can be compared directly.
         */
-       Oid     new_oid;
+       Oid         new_oid;
 
-       do {
+       do
+       {
            new_oid = GetNewOid(pg_enum);
        } while (new_oid & 1);
        oids[elemno] = new_oid;
@@ -202,9 +202,9 @@ AddEnumLabel(Oid enumTypeOid,
    /*
     * Acquire a lock on the enum type, which we won't release until commit.
     * This ensures that two backends aren't concurrently modifying the same
-    * enum type.  Without that, we couldn't be sure to get a consistent
-    * view of the enum members via the syscache.  Note that this does not
-    * block other backends from inspecting the type; see comments for
+    * enum type.  Without that, we couldn't be sure to get a consistent view
+    * of the enum members via the syscache.  Note that this does not block
+    * other backends from inspecting the type; see comments for
     * RenumberEnumType.
     */
    LockDatabaseObject(TypeRelationId, enumTypeOid, 0, ExclusiveLock);
@@ -217,7 +217,7 @@ restart:
    /* Get the list of existing members of the enum */
    list = SearchSysCacheList1(ENUMTYPOIDNAME,
                               ObjectIdGetDatum(enumTypeOid));
-   nelems =  list->n_members;
+   nelems = list->n_members;
 
    /* Sort the existing members by enumsortorder */
    existing = (HeapTuple *) palloc(nelems * sizeof(HeapTuple));
@@ -229,8 +229,8 @@ restart:
    if (neighbor == NULL)
    {
        /*
-        * Put the new label at the end of the list.
-        * No change to existing tuples is required.
+        * Put the new label at the end of the list. No change to existing
+        * tuples is required.
         */
        if (nelems > 0)
        {
@@ -244,10 +244,10 @@ restart:
    else
    {
        /* BEFORE or AFTER was specified */
-       int             nbr_index;
-       int             other_nbr_index;
-       Form_pg_enum    nbr_en;
-       Form_pg_enum    other_nbr_en;
+       int         nbr_index;
+       int         other_nbr_index;
+       Form_pg_enum nbr_en;
+       Form_pg_enum other_nbr_en;
 
        /* Locate the neighbor element */
        for (nbr_index = 0; nbr_index < nelems; nbr_index++)
@@ -265,14 +265,14 @@ restart:
        nbr_en = (Form_pg_enum) GETSTRUCT(existing[nbr_index]);
 
        /*
-        * Attempt to assign an appropriate enumsortorder value: one less
-        * than the smallest member, one more than the largest member,
-        * or halfway between two existing members.
+        * Attempt to assign an appropriate enumsortorder value: one less than
+        * the smallest member, one more than the largest member, or halfway
+        * between two existing members.
         *
         * In the "halfway" case, because of the finite precision of float4,
-        * we might compute a value that's actually equal to one or the
-        * other of its neighbors.  In that case we renumber the existing
-        * members and try again.
+        * we might compute a value that's actually equal to one or the other
+        * of its neighbors.  In that case we renumber the existing members
+        * and try again.
         */
        if (newValIsAfter)
            other_nbr_index = nbr_index + 1;
@@ -291,10 +291,10 @@ restart:
 
            /*
             * On some machines, newelemorder may be in a register that's
-            * wider than float4.  We need to force it to be rounded to
-            * float4 precision before making the following comparisons,
-            * or we'll get wrong results.  (Such behavior violates the C
-            * standard, but fixing the compilers is out of our reach.)
+            * wider than float4.  We need to force it to be rounded to float4
+            * precision before making the following comparisons, or we'll get
+            * wrong results.  (Such behavior violates the C standard, but
+            * fixing the compilers is out of our reach.)
             */
            newelemorder = DatumGetFloat4(Float4GetDatum(newelemorder));
 
@@ -314,9 +314,9 @@ restart:
    if (OidIsValid(binary_upgrade_next_pg_enum_oid))
    {
        /*
-        *  Use binary-upgrade override for pg_enum.oid, if supplied.
-        *  During binary upgrade, all pg_enum.oid's are set this way
-        *  so they are guaranteed to be consistent.
+        * Use binary-upgrade override for pg_enum.oid, if supplied. During
+        * binary upgrade, all pg_enum.oid's are set this way so they are
+        * guaranteed to be consistent.
         */
        if (neighbor != NULL)
            ereport(ERROR,
@@ -337,7 +337,7 @@ restart:
         */
        for (;;)
        {
-           bool    sorts_ok;
+           bool        sorts_ok;
 
            /* Get a new OID (different from all existing pg_enum tuples) */
            newOid = GetNewOid(pg_enum);
@@ -345,8 +345,8 @@ restart:
            /*
             * Detect whether it sorts correctly relative to existing
             * even-numbered labels of the enum.  We can ignore existing
-            * labels with odd Oids, since a comparison involving one of
-            * those will not take the fast path anyway.
+            * labels with odd Oids, since a comparison involving one of those
+            * will not take the fast path anyway.
             */
            sorts_ok = true;
            for (i = 0; i < nelems; i++)
@@ -385,9 +385,9 @@ restart:
                    break;
 
                /*
-                * If it's odd, and sorts OK, loop back to get another OID
-                * and try again.  Probably, the next available even OID
-                * will sort correctly too, so it's worth trying.
+                * If it's odd, and sorts OK, loop back to get another OID and
+                * try again.  Probably, the next available even OID will sort
+                * correctly too, so it's worth trying.
                 */
            }
            else
@@ -435,7 +435,7 @@ restart:
  * We avoid doing this unless absolutely necessary; in most installations
  * it will never happen.  The reason is that updating existing pg_enum
  * entries creates hazards for other backends that are concurrently reading
- * pg_enum with SnapshotNow semantics.  A concurrent SnapshotNow scan could
+ * pg_enum with SnapshotNow semantics. A concurrent SnapshotNow scan could
  * see both old and new versions of an updated row as valid, or neither of
  * them, if the commit happens between scanning the two versions.  It's
  * also quite likely for a concurrent scan to see an inconsistent set of
@@ -510,10 +510,10 @@ oid_cmp(const void *p1, const void *p2)
 static int
 sort_order_cmp(const void *p1, const void *p2)
 {
-   HeapTuple       v1 = *((const HeapTuple *) p1);
-   HeapTuple       v2 = *((const HeapTuple *) p2);
-   Form_pg_enum    en1 = (Form_pg_enum) GETSTRUCT(v1);
-   Form_pg_enum    en2 = (Form_pg_enum) GETSTRUCT(v2);
+   HeapTuple   v1 = *((const HeapTuple *) p1);
+   HeapTuple   v2 = *((const HeapTuple *) p2);
+   Form_pg_enum en1 = (Form_pg_enum) GETSTRUCT(v1);
+   Form_pg_enum en2 = (Form_pg_enum) GETSTRUCT(v2);
 
    if (en1->enumsortorder < en2->enumsortorder)
        return -1;
index 6138165cc376e759a2697ed821d0dd60e88b5f4a..47a8ff4d989675381524d3ff596ee3bd86bb6449 100644 (file)
@@ -842,8 +842,8 @@ fmgr_sql_validator(PG_FUNCTION_ARGS)
        if (!haspolyarg)
        {
            /*
-            * OK to do full precheck: analyze and rewrite the queries,
-            * then verify the result type.
+            * OK to do full precheck: analyze and rewrite the queries, then
+            * verify the result type.
             */
            SQLFunctionParseInfoPtr pinfo;
 
@@ -858,7 +858,7 @@ fmgr_sql_validator(PG_FUNCTION_ARGS)
 
                querytree_sublist = pg_analyze_and_rewrite_params(parsetree,
                                                                  prosrc,
-                                                                 (ParserSetupHook) sql_fn_parser_setup,
+                                      (ParserSetupHook) sql_fn_parser_setup,
                                                                  pinfo);
                querytree_list = list_concat(querytree_list,
                                             querytree_sublist);
index 06301c075bbfc85bee0ade4ccbab6ee9b1c1584c..9e35e73f9cf9349565f206b67d2c8bb27130df8a 100644 (file)
@@ -115,7 +115,7 @@ TypeShellMake(const char *typeName, Oid typeNamespace, Oid ownerId)
    values[i++] = ObjectIdGetDatum(InvalidOid); /* typbasetype */
    values[i++] = Int32GetDatum(-1);    /* typtypmod */
    values[i++] = Int32GetDatum(0);     /* typndims */
-   values[i++] = ObjectIdGetDatum(InvalidOid); /* typcollation */
+   values[i++] = ObjectIdGetDatum(InvalidOid); /* typcollation */
    nulls[i++] = true;          /* typdefaultbin */
    nulls[i++] = true;          /* typdefault */
 
@@ -352,7 +352,7 @@ TypeCreate(Oid newTypeOid,
    values[i++] = ObjectIdGetDatum(baseType);   /* typbasetype */
    values[i++] = Int32GetDatum(typeMod);       /* typtypmod */
    values[i++] = Int32GetDatum(typNDims);      /* typndims */
-   values[i++] = ObjectIdGetDatum(typeCollation);  /* typcollation */
+   values[i++] = ObjectIdGetDatum(typeCollation);      /* typcollation */
 
    /*
     * initialize the default binary value for this type.  Check for nulls of
index 221f9f5c12ce7f293174eb923458b669f682fa67..57987be2c0aa922e964ae8c2add3035c092400c2 100644 (file)
@@ -119,7 +119,7 @@ RelationCreateStorage(RelFileNode rnode, char relpersistence)
            break;
        default:
            elog(ERROR, "invalid relpersistence: %c", relpersistence);
-           return;         /* placate compiler */
+           return;             /* placate compiler */
    }
 
    srel = smgropen(rnode, backend);
@@ -379,7 +379,7 @@ smgrDoPendingDeletes(bool isCommit)
  * *ptr is set to point to a freshly-palloc'd array of RelFileNodes.
  * If there are no relations to be deleted, *ptr is set to NULL.
  *
- * Only non-temporary relations are included in the returned list.  This is OK
+ * Only non-temporary relations are included in the returned list. This is OK
  * because the list is used only in contexts where temporary relations don't
  * matter: we're either writing to the two-phase state file (and transactions
  * that have touched temp tables can't be prepared) or we're writing to xlog
index 5d5496df98963ccb0e808234f9e6667acafd65dd..452ca9bef02a31fa1a652879970f394a4aae002a 100644 (file)
@@ -279,7 +279,7 @@ create_toast_table(Relation rel, Oid toastOid, Oid toastIndexOid, Datum reloptio
                               list_make2("chunk_id", "chunk_seq"),
                               BTREE_AM_OID,
                               rel->rd_rel->reltablespace,
-                              collationObjectId, classObjectId, coloptions, (Datum) 0,
+                    collationObjectId, classObjectId, coloptions, (Datum) 0,
                               true, false, false, false,
                               true, false, false);
 
index 99fdd7dba30aa2c08249b0cfcfbbceee303a346b..215e21cae0826b870fce4856e7ed366f03c82a2b 100644 (file)
@@ -282,26 +282,26 @@ AlterObjectNamespace_oid(Oid classId, Oid objid, Oid nspOid)
    switch (getObjectClass(&dep))
    {
        case OCLASS_CLASS:
-       {
-           Relation rel;
-           Relation classRel;
+           {
+               Relation    rel;
+               Relation    classRel;
 
-           rel = relation_open(objid, AccessExclusiveLock);
-           oldNspOid = RelationGetNamespace(rel);
+               rel = relation_open(objid, AccessExclusiveLock);
+               oldNspOid = RelationGetNamespace(rel);
 
-           classRel = heap_open(RelationRelationId, RowExclusiveLock);
+               classRel = heap_open(RelationRelationId, RowExclusiveLock);
 
-           AlterRelationNamespaceInternal(classRel,
-                                          objid,
-                                          oldNspOid,
-                                          nspOid,
-                                          true);
+               AlterRelationNamespaceInternal(classRel,
+                                              objid,
+                                              oldNspOid,
+                                              nspOid,
+                                              true);
 
-           heap_close(classRel, RowExclusiveLock);
+               heap_close(classRel, RowExclusiveLock);
 
-           relation_close(rel, NoLock);
-           break;
-       }
+               relation_close(rel, NoLock);
+               break;
+           }
 
        case OCLASS_PROC:
            oldNspOid = AlterFunctionNamespace_oid(objid, nspOid);
@@ -386,9 +386,11 @@ AlterObjectNamespace(Relation rel, int oidCacheId, int nameCacheId,
 {
    Oid         classId = RelationGetRelid(rel);
    Oid         oldNspOid;
-   Datum       name, namespace;
-   bool        isnull;
-   HeapTuple   tup, newtup;
+   Datum       name,
+               namespace;
+   bool        isnull;
+   HeapTuple   tup,
+               newtup;
    Datum      *values;
    bool       *nulls;
    bool       *replaces;
@@ -410,7 +412,7 @@ AlterObjectNamespace(Relation rel, int oidCacheId, int nameCacheId,
    /* Permission checks ... superusers can always do it */
    if (!superuser())
    {
-       Datum       owner;
+       Datum       owner;
        Oid         ownerId;
        AclResult   aclresult;
 
index 774bb044715123b7f7f120e2a91eedc3687d7975..dde301b89aa2b73254dde0a9dc4dc3c81819799d 100644 (file)
@@ -95,7 +95,7 @@ static void compute_index_stats(Relation onerel, double totalrows,
                    HeapTuple *rows, int numrows,
                    MemoryContext col_context);
 static VacAttrStats *examine_attribute(Relation onerel, int attnum,
-                                      Node *index_expr);
+                 Node *index_expr);
 static int acquire_sample_rows(Relation onerel, HeapTuple *rows,
                    int targrows, double *totalrows, double *totaldeadrows);
 static double random_fract(void);
@@ -160,8 +160,8 @@ analyze_rel(Oid relid, VacuumStmt *vacstmt,
        if (IsAutoVacuumWorkerProcess() && Log_autovacuum_min_duration >= 0)
            ereport(LOG,
                    (errcode(ERRCODE_LOCK_NOT_AVAILABLE),
-                    errmsg("skipping analyze of \"%s\" --- lock not available",
-                       vacstmt->relation->relname)));
+                 errmsg("skipping analyze of \"%s\" --- lock not available",
+                        vacstmt->relation->relname)));
    }
    if (!onerel)
        return;
@@ -853,10 +853,10 @@ examine_attribute(Relation onerel, int attnum, Node *index_expr)
    /*
     * When analyzing an expression index, believe the expression tree's type
     * not the column datatype --- the latter might be the opckeytype storage
-    * type of the opclass, which is not interesting for our purposes.  (Note:
+    * type of the opclass, which is not interesting for our purposes.  (Note:
     * if we did anything with non-expression index columns, we'd need to
     * figure out where to get the correct type info from, but for now that's
-    * not a problem.)  It's not clear whether anyone will care about the
+    * not a problem.)  It's not clear whether anyone will care about the
     * typmod, but we store that too just in case.
     */
    if (index_expr)
index 4c4f356e79086699518651e6fb8fb52ca96be130..2cc2aaa8f64052b0044823624fbc3a0545e9fb65 100644 (file)
@@ -718,7 +718,7 @@ copy_heap_data(Oid OIDNewHeap, Oid OIDOldHeap, Oid OIDOldIndex,
    TransactionId OldestXmin;
    TransactionId FreezeXid;
    RewriteState rwstate;
-   bool         use_sort;
+   bool        use_sort;
    Tuplesortstate *tuplesort;
    double      num_tuples = 0,
                tups_vacuumed = 0,
@@ -813,11 +813,11 @@ copy_heap_data(Oid OIDNewHeap, Oid OIDOldHeap, Oid OIDOldIndex,
    rwstate = begin_heap_rewrite(NewHeap, OldestXmin, FreezeXid, use_wal);
 
    /*
-    * Decide whether to use an indexscan or seqscan-and-optional-sort to
-    * scan the OldHeap.  We know how to use a sort to duplicate the ordering
-    * of a btree index, and will use seqscan-and-sort for that case if the
-    * planner tells us it's cheaper.  Otherwise, always indexscan if an
-    * index is provided, else plain seqscan.
+    * Decide whether to use an indexscan or seqscan-and-optional-sort to scan
+    * the OldHeap.  We know how to use a sort to duplicate the ordering of a
+    * btree index, and will use seqscan-and-sort for that case if the planner
+    * tells us it's cheaper.  Otherwise, always indexscan if an index is
+    * provided, else plain seqscan.
     */
    if (OldIndex != NULL && OldIndex->rd_rel->relam == BTREE_AM_OID)
        use_sort = plan_cluster_use_sort(OIDOldHeap, OIDOldIndex);
@@ -869,8 +869,8 @@ copy_heap_data(Oid OIDNewHeap, Oid OIDOldHeap, Oid OIDOldIndex,
    /*
     * Scan through the OldHeap, either in OldIndex order or sequentially;
     * copy each tuple into the NewHeap, or transiently to the tuplesort
-    * module.  Note that we don't bother sorting dead tuples (they won't
-    * get to the new table anyway).
+    * module.  Note that we don't bother sorting dead tuples (they won't get
+    * to the new table anyway).
     */
    for (;;)
    {
@@ -984,8 +984,8 @@ copy_heap_data(Oid OIDNewHeap, Oid OIDOldHeap, Oid OIDOldIndex,
        heap_endscan(heapScan);
 
    /*
-    * In scan-and-sort mode, complete the sort, then read out all live
-    * tuples from the tuplestore and write them to the new relation.
+    * In scan-and-sort mode, complete the sort, then read out all live tuples
+    * from the tuplestore and write them to the new relation.
     */
    if (tuplesort != NULL)
    {
@@ -1554,7 +1554,7 @@ reform_and_rewrite_tuple(HeapTuple tuple,
                         bool newRelHasOids, RewriteState rwstate)
 {
    HeapTuple   copiedTuple;
-   int         i;
+   int         i;
 
    heap_deform_tuple(tuple, oldTupDesc, values, isnull);
 
index 2a6938fd04bcd1f757e4d6562fc3389093155022..7f8a108374ec8a307607aa1b20b2240c821b7868 100644 (file)
@@ -34,7 +34,7 @@
 #include "utils/syscache.h"
 
 static void AlterCollationOwner_internal(Relation rel, Oid collationOid,
-                             Oid newOwnerId);
+                            Oid newOwnerId);
 
 /*
  * CREATE COLLATION
@@ -46,10 +46,10 @@ DefineCollation(List *names, List *parameters)
    Oid         collNamespace;
    AclResult   aclresult;
    ListCell   *pl;
-   DefElem    *fromEl = NULL;
-   DefElem    *localeEl = NULL;
-   DefElem    *lccollateEl = NULL;
-   DefElem    *lcctypeEl = NULL;
+   DefElem    *fromEl = NULL;
+   DefElem    *localeEl = NULL;
+   DefElem    *lccollateEl = NULL;
+   DefElem    *lcctypeEl = NULL;
    char       *collcollate = NULL;
    char       *collctype = NULL;
    Oid         newoid;
@@ -63,7 +63,7 @@ DefineCollation(List *names, List *parameters)
 
    foreach(pl, parameters)
    {
-       DefElem    *defel = (DefElem *) lfirst(pl);
+       DefElem    *defel = (DefElem *) lfirst(pl);
        DefElem   **defelp;
 
        if (pg_strcasecmp(defel->defname, "from") == 0)
@@ -97,7 +97,7 @@ DefineCollation(List *names, List *parameters)
        Oid         collid;
        HeapTuple   tp;
 
-       collid =  get_collation_oid(defGetQualifiedName(fromEl), false);
+       collid = get_collation_oid(defGetQualifiedName(fromEl), false);
        tp = SearchSysCache1(COLLOID, ObjectIdGetDatum(collid));
        if (!HeapTupleIsValid(tp))
            elog(ERROR, "cache lookup failed for collation %u", collid);
@@ -123,7 +123,7 @@ DefineCollation(List *names, List *parameters)
    if (!collcollate)
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_OBJECT_DEFINITION),
-                errmsg("parameter \"lc_collate\" parameter must be specified")));
+           errmsg("parameter \"lc_collate\" parameter must be specified")));
 
    if (!collctype)
        ereport(ERROR,
@@ -391,7 +391,7 @@ AlterCollationNamespace(List *name, const char *newschema)
 Oid
 AlterCollationNamespace_oid(Oid collOid, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
    char       *collation_name;
 
index 3fbeefa018b828b7d47f23acb63d1bf357f5b1cb..d09bef06824611c55a12289c923bcf461904bbf4 100644 (file)
@@ -37,8 +37,8 @@
 void
 CommentObject(CommentStmt *stmt)
 {
-   ObjectAddress   address;
-   Relation        relation;
+   ObjectAddress address;
+   Relation    relation;
 
    /*
     * When loading a dump, we may see a COMMENT ON DATABASE for the old name
@@ -46,12 +46,13 @@ CommentObject(CommentStmt *stmt)
     * (which is really pg_restore's fault, but for now we will work around
     * the problem here).  Consensus is that the best fix is to treat wrong
     * database name as a WARNING not an ERROR; hence, the following special
-    * case.  (If the length of stmt->objname is not 1, get_object_address will
-    * throw an error below; that's OK.)
+    * case.  (If the length of stmt->objname is not 1, get_object_address
+    * will throw an error below; that's OK.)
     */
    if (stmt->objtype == OBJECT_DATABASE && list_length(stmt->objname) == 1)
    {
-       char   *database = strVal(linitial(stmt->objname));
+       char       *database = strVal(linitial(stmt->objname));
+
        if (!OidIsValid(get_database_oid(database, true)))
        {
            ereport(WARNING,
@@ -62,10 +63,10 @@ CommentObject(CommentStmt *stmt)
    }
 
    /*
-    * Translate the parser representation that identifies this object into
-    * an ObjectAddress.  get_object_address() will throw an error if the
-    * object does not exist, and will also acquire a lock on the target
-     * to guard against concurrent DROP operations.
+    * Translate the parser representation that identifies this object into an
+    * ObjectAddress.  get_object_address() will throw an error if the object
+    * does not exist, and will also acquire a lock on the target to guard
+    * against concurrent DROP operations.
     */
    address = get_object_address(stmt->objtype, stmt->objname, stmt->objargs,
                                 &relation, ShareUpdateExclusiveLock);
@@ -78,6 +79,7 @@ CommentObject(CommentStmt *stmt)
    switch (stmt->objtype)
    {
        case OBJECT_COLUMN:
+
            /*
             * Allow comments only on columns of tables, views, composite
             * types, and foreign tables (which are the only relkinds for
index b5e4420ca8d983464a695acfcd87b11cc709b3e5..2c1c6da90092787b8187bdc26286b1c0a0cccd0c 100644 (file)
@@ -335,7 +335,8 @@ AlterConversionOwner_internal(Relation rel, Oid conversionOid, Oid newOwnerId)
 void
 AlterConversionNamespace(List *name, const char *newschema)
 {
-   Oid         convOid, nspOid;
+   Oid         convOid,
+               nspOid;
    Relation    rel;
 
    rel = heap_open(ConversionRelationId, RowExclusiveLock);
@@ -361,7 +362,7 @@ AlterConversionNamespace(List *name, const char *newschema)
 Oid
 AlterConversionNamespace_oid(Oid convOid, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(ConversionRelationId, RowExclusiveLock);
index 3af0b097198df0939e56d1bdf8b5e0073eb27215..57429035e895e5b74f158e005b726ea3d40915ce 100644 (file)
@@ -115,7 +115,7 @@ typedef struct CopyStateData
    char       *quote;          /* CSV quote char (must be 1 byte) */
    char       *escape;         /* CSV escape char (must be 1 byte) */
    List       *force_quote;    /* list of column names */
-   bool        force_quote_all; /* FORCE QUOTE *? */
+   bool        force_quote_all;    /* FORCE QUOTE *? */
    bool       *force_quote_flags;      /* per-column CSV FQ flags */
    List       *force_notnull;  /* list of column names */
    bool       *force_notnull_flags;    /* per-column CSV FNN flags */
@@ -161,8 +161,8 @@ typedef struct CopyStateData
 
    /* field raw data pointers found by COPY FROM */
 
-   int max_fields;
-   char ** raw_fields;
+   int         max_fields;
+   char      **raw_fields;
 
    /*
     * Similarly, line_buf holds the whole input line being processed. The
@@ -266,10 +266,10 @@ static const char BinarySignature[11] = "PGCOPY\n\377\r\n\0";
 
 /* non-export function prototypes */
 static CopyState BeginCopy(bool is_from, Relation rel, Node *raw_query,
-               const char *queryString, List *attnamelist, List *options);
+         const char *queryString, List *attnamelist, List *options);
 static void EndCopy(CopyState cstate);
 static CopyState BeginCopyTo(Relation rel, Node *query, const char *queryString,
-               const char *filename, List *attnamelist, List *options);
+           const char *filename, List *attnamelist, List *options);
 static void EndCopyTo(CopyState cstate);
 static uint64 DoCopyTo(CopyState cstate);
 static uint64 CopyTo(CopyState cstate);
@@ -278,8 +278,8 @@ static void CopyOneRowTo(CopyState cstate, Oid tupleOid,
 static uint64 CopyFrom(CopyState cstate);
 static bool CopyReadLine(CopyState cstate);
 static bool CopyReadLineText(CopyState cstate);
-static int CopyReadAttributesText(CopyState cstate);
-static int CopyReadAttributesCSV(CopyState cstate);
+static int CopyReadAttributesText(CopyState cstate);
+static int CopyReadAttributesCSV(CopyState cstate);
 static Datum CopyReadBinaryAttribute(CopyState cstate,
                        int column_no, FmgrInfo *flinfo,
                        Oid typioparam, int32 typmod,
@@ -748,17 +748,17 @@ DoCopy(const CopyStmt *stmt, const char *queryString)
 
    if (stmt->relation)
    {
-       TupleDesc       tupDesc;
-       AclMode         required_access = (is_from ? ACL_INSERT : ACL_SELECT);
-       RangeTblEntry  *rte;
-       List           *attnums;
-       ListCell       *cur;
+       TupleDesc   tupDesc;
+       AclMode     required_access = (is_from ? ACL_INSERT : ACL_SELECT);
+       RangeTblEntry *rte;
+       List       *attnums;
+       ListCell   *cur;
 
        Assert(!stmt->query);
 
        /* Open and lock the relation, using the appropriate lock type. */
        rel = heap_openrv(stmt->relation,
-                            (is_from ? RowExclusiveLock : AccessShareLock));
+                         (is_from ? RowExclusiveLock : AccessShareLock));
 
        rte = makeNode(RangeTblEntry);
        rte->rtekind = RTE_RELATION;
@@ -770,8 +770,8 @@ DoCopy(const CopyStmt *stmt, const char *queryString)
        attnums = CopyGetAttnums(tupDesc, rel, stmt->attlist);
        foreach(cur, attnums)
        {
-           int     attno = lfirst_int(cur) -
-                           FirstLowInvalidHeapAttributeNumber;
+           int         attno = lfirst_int(cur) -
+           FirstLowInvalidHeapAttributeNumber;
 
            if (is_from)
                rte->modifiedCols = bms_add_member(rte->modifiedCols, attno);
@@ -1136,8 +1136,8 @@ BeginCopy(bool is_from,
    cstate = (CopyStateData *) palloc0(sizeof(CopyStateData));
 
    /*
-    * We allocate everything used by a cstate in a new memory context.
-    * This avoids memory leaks during repeated use of COPY in a query.
+    * We allocate everything used by a cstate in a new memory context. This
+    * avoids memory leaks during repeated use of COPY in a query.
     */
    cstate->copycontext = AllocSetContextCreate(CurrentMemoryContext,
                                                "COPY",
@@ -1300,9 +1300,9 @@ BeginCopy(bool is_from,
        cstate->file_encoding = pg_get_client_encoding();
 
    /*
-    * Set up encoding conversion info.  Even if the file and server
-    * encodings are the same, we must apply pg_any_to_server() to validate
-    * data in multibyte encodings.
+    * Set up encoding conversion info.  Even if the file and server encodings
+    * are the same, we must apply pg_any_to_server() to validate data in
+    * multibyte encodings.
     */
    cstate->need_transcoding =
        (cstate->file_encoding != GetDatabaseEncoding() ||
@@ -1552,8 +1552,8 @@ CopyTo(CopyState cstate)
         */
        if (cstate->need_transcoding)
            cstate->null_print_client = pg_server_to_any(cstate->null_print,
-                                                        cstate->null_print_len,
-                                                        cstate->file_encoding);
+                                                     cstate->null_print_len,
+                                                     cstate->file_encoding);
 
        /* if a header has been requested send the line */
        if (cstate->header_line)
@@ -2001,9 +2001,9 @@ CopyFrom(CopyState cstate)
        {
            slot = ExecBRInsertTriggers(estate, resultRelInfo, slot);
 
-           if (slot == NULL)       /* "do nothing" */
+           if (slot == NULL)   /* "do nothing" */
                skip_tuple = true;
-           else                    /* trigger might have changed tuple */
+           else    /* trigger might have changed tuple */
                tuple = ExecMaterializeSlot(slot);
        }
 
@@ -2159,7 +2159,7 @@ BeginCopyFrom(Relation rel,
            {
                /* Initialize expressions in copycontext. */
                defexprs[num_defaults] = ExecInitExpr(
-                               expression_planner((Expr *) defexpr), NULL);
+                                expression_planner((Expr *) defexpr), NULL);
                defmap[num_defaults] = attnum - 1;
                num_defaults++;
            }
@@ -2255,7 +2255,7 @@ BeginCopyFrom(Relation rel,
    if (!cstate->binary)
    {
        AttrNumber  attr_count = list_length(cstate->attnumlist);
-       int nfields = cstate->file_has_oids ? (attr_count + 1) : attr_count;
+       int         nfields = cstate->file_has_oids ? (attr_count + 1) : attr_count;
 
        cstate->max_fields = nfields;
        cstate->raw_fields = (char **) palloc(nfields * sizeof(char *));
@@ -2291,7 +2291,7 @@ NextCopyFromRawFields(CopyState cstate, char ***fields, int *nfields)
    {
        cstate->cur_lineno++;
        if (CopyReadLine(cstate))
-           return false;   /* done */
+           return false;       /* done */
    }
 
    cstate->cur_lineno++;
@@ -2300,9 +2300,9 @@ NextCopyFromRawFields(CopyState cstate, char ***fields, int *nfields)
    done = CopyReadLine(cstate);
 
    /*
-    * EOF at start of line means we're done.  If we see EOF after
-    * some characters, we act as though it was newline followed by
-    * EOF, ie, process the line and then exit loop on next iteration.
+    * EOF at start of line means we're done.  If we see EOF after some
+    * characters, we act as though it was newline followed by EOF, ie,
+    * process the line and then exit loop on next iteration.
     */
    if (done && cstate->line_buf.len == 0)
        return false;
@@ -2341,7 +2341,7 @@ NextCopyFrom(CopyState cstate, ExprContext *econtext,
    FmgrInfo   *in_functions = cstate->in_functions;
    Oid        *typioparams = cstate->typioparams;
    int         i;
-   int         nfields;
+   int         nfields;
    bool        isnull;
    bool        file_has_oids = cstate->file_has_oids;
    int        *defmap = cstate->defmap;
@@ -2456,18 +2456,18 @@ NextCopyFrom(CopyState cstate, ExprContext *econtext,
        if (fld_count == -1)
        {
            /*
-            * Received EOF marker.  In a V3-protocol copy, wait for
-            * the protocol-level EOF, and complain if it doesn't come
-            * immediately.  This ensures that we correctly handle
-            * CopyFail, if client chooses to send that now.
+            * Received EOF marker.  In a V3-protocol copy, wait for the
+            * protocol-level EOF, and complain if it doesn't come
+            * immediately.  This ensures that we correctly handle CopyFail,
+            * if client chooses to send that now.
             *
-            * Note that we MUST NOT try to read more data in an
-            * old-protocol copy, since there is no protocol-level EOF
-            * marker then.  We could go either way for copy from file,
-            * but choose to throw error if there's data after the EOF
-            * marker, for consistency with the new-protocol case.
+            * Note that we MUST NOT try to read more data in an old-protocol
+            * copy, since there is no protocol-level EOF marker then.  We
+            * could go either way for copy from file, but choose to throw
+            * error if there's data after the EOF marker, for consistency
+            * with the new-protocol case.
             */
-           char    dummy;
+           char        dummy;
 
            if (cstate->copy_dest != COPY_OLD_FE &&
                CopyGetData(cstate, &dummy, 1, 1) > 0)
@@ -2485,14 +2485,14 @@ NextCopyFrom(CopyState cstate, ExprContext *econtext,
 
        if (file_has_oids)
        {
-           Oid     loaded_oid;
+           Oid         loaded_oid;
 
            cstate->cur_attname = "oid";
            loaded_oid =
                DatumGetObjectId(CopyReadBinaryAttribute(cstate,
                                                         0,
-                                                        &cstate->oid_in_function,
-                                                        cstate->oid_typioparam,
+                                                   &cstate->oid_in_function,
+                                                     cstate->oid_typioparam,
                                                         -1,
                                                         &isnull));
            if (isnull || loaded_oid == InvalidOid)
@@ -2524,8 +2524,8 @@ NextCopyFrom(CopyState cstate, ExprContext *econtext,
 
    /*
     * Now compute and insert any defaults available for the columns not
-    * provided by the input data.  Anything not processed here or above
-    * will remain NULL.
+    * provided by the input data.  Anything not processed here or above will
+    * remain NULL.
     */
    for (i = 0; i < num_defaults; i++)
    {
@@ -3023,12 +3023,12 @@ GetDecimalFromHex(char hex)
  * performing de-escaping as needed.
  *
  * The input is in line_buf.  We use attribute_buf to hold the result
- * strings.  cstate->raw_fields[k] is set to point to the k'th attribute 
- * string, or NULL when the input matches the null marker string.  
+ * strings.  cstate->raw_fields[k] is set to point to the k'th attribute
+ * string, or NULL when the input matches the null marker string.
  * This array is expanded as necessary.
  *
- * (Note that the caller cannot check for nulls since the returned 
- * string would be the post-de-escaping equivalent, which may look 
+ * (Note that the caller cannot check for nulls since the returned
+ * string would be the post-de-escaping equivalent, which may look
  * the same as some valid data string.)
  *
  * delim is the column delimiter string (must be just one byte for now).
@@ -3090,8 +3090,8 @@ CopyReadAttributesText(CopyState cstate)
        if (fieldno >= cstate->max_fields)
        {
            cstate->max_fields *= 2;
-           cstate->raw_fields = 
-               repalloc(cstate->raw_fields, cstate->max_fields*sizeof(char *));
+           cstate->raw_fields =
+               repalloc(cstate->raw_fields, cstate->max_fields * sizeof(char *));
        }
 
        /* Remember start of field on both input and output sides */
@@ -3307,8 +3307,8 @@ CopyReadAttributesCSV(CopyState cstate)
        if (fieldno >= cstate->max_fields)
        {
            cstate->max_fields *= 2;
-           cstate->raw_fields = 
-               repalloc(cstate->raw_fields, cstate->max_fields*sizeof(char *));
+           cstate->raw_fields =
+               repalloc(cstate->raw_fields, cstate->max_fields * sizeof(char *));
        }
 
        /* Remember start of field on both input and output sides */
index 87d9e545b4fb698424967021036d9168c9e83507..f319eb539c319a386f589b370b6a8d9ccbfe216d 100644 (file)
@@ -680,8 +680,8 @@ createdb(const CreatedbStmt *stmt)
 void
 check_encoding_locale_matches(int encoding, const char *collate, const char *ctype)
 {
-   int ctype_encoding = pg_get_encoding_from_locale(ctype, true);
-   int collate_encoding = pg_get_encoding_from_locale(collate, true);
+   int         ctype_encoding = pg_get_encoding_from_locale(ctype, true);
+   int         collate_encoding = pg_get_encoding_from_locale(collate, true);
 
    if (!(ctype_encoding == encoding ||
          ctype_encoding == PG_SQL_ASCII ||
@@ -1849,10 +1849,10 @@ get_database_oid(const char *dbname, bool missing_ok)
    heap_close(pg_database, AccessShareLock);
 
    if (!OidIsValid(oid) && !missing_ok)
-        ereport(ERROR,
-                (errcode(ERRCODE_UNDEFINED_DATABASE),
-                 errmsg("database \"%s\" does not exist",
-                        dbname)));
+       ereport(ERROR,
+               (errcode(ERRCODE_UNDEFINED_DATABASE),
+                errmsg("database \"%s\" does not exist",
+                       dbname)));
 
    return oid;
 }
index 1d9586f07d44d1a780f990e3cbe192c5b09a4d16..7a361585bddf5a210ba2d7b33309d0fa20fd4a6c 100644 (file)
@@ -59,26 +59,26 @@ static void ExplainNode(PlanState *planstate, List *ancestors,
            const char *relationship, const char *plan_name,
            ExplainState *es);
 static void show_plan_tlist(PlanState *planstate, List *ancestors,
-                           ExplainState *es);
+               ExplainState *es);
 static void show_expression(Node *node, const char *qlabel,
                PlanState *planstate, List *ancestors,
                bool useprefix, ExplainState *es);
 static void show_qual(List *qual, const char *qlabel,
-                     PlanState *planstate, List *ancestors,
-                     bool useprefix, ExplainState *es);
+         PlanState *planstate, List *ancestors,
+         bool useprefix, ExplainState *es);
 static void show_scan_qual(List *qual, const char *qlabel,
-                          PlanState *planstate, List *ancestors,
-                          ExplainState *es);
+              PlanState *planstate, List *ancestors,
+              ExplainState *es);
 static void show_upper_qual(List *qual, const char *qlabel,
-                           PlanState *planstate, List *ancestors,
-                           ExplainState *es);
+               PlanState *planstate, List *ancestors,
+               ExplainState *es);
 static void show_sort_keys(SortState *sortstate, List *ancestors,
-                          ExplainState *es);
+              ExplainState *es);
 static void show_merge_append_keys(MergeAppendState *mstate, List *ancestors,
-                                  ExplainState *es);
+                      ExplainState *es);
 static void show_sort_keys_common(PlanState *planstate,
-                                 int nkeys, AttrNumber *keycols,
-                                 List *ancestors, ExplainState *es);
+                     int nkeys, AttrNumber *keycols,
+                     List *ancestors, ExplainState *es);
 static void show_sort_info(SortState *sortstate, ExplainState *es);
 static void show_hash_info(HashState *hashstate, ExplainState *es);
 static void show_foreignscan_info(ForeignScanState *fsstate, ExplainState *es);
@@ -89,7 +89,7 @@ static void ExplainTargetRel(Plan *plan, Index rti, ExplainState *es);
 static void ExplainMemberNodes(List *plans, PlanState **planstates,
                   List *ancestors, ExplainState *es);
 static void ExplainSubPlans(List *plans, List *ancestors,
-                           const char *relationship, ExplainState *es);
+               const char *relationship, ExplainState *es);
 static void ExplainProperty(const char *qlabel, const char *value,
                bool numeric, ExplainState *es);
 static void ExplainOpenGroup(const char *objtype, const char *labelname,
@@ -1358,7 +1358,7 @@ show_scan_qual(List *qual, const char *qlabel,
 {
    bool        useprefix;
 
-   useprefix = (IsA(planstate->plan, SubqueryScan) || es->verbose);
+   useprefix = (IsA(planstate->plan, SubqueryScan) ||es->verbose);
    show_qual(qual, qlabel, planstate, ancestors, useprefix, es);
 }
 
index 7c3e8107deec84eb892b03626dd8c1d26f467bf0..d848926ae55ef8ec2b341bd55cea813fc487cdb8 100644 (file)
@@ -56,8 +56,8 @@
 
 
 /* Globally visible state variables */
-bool           creating_extension = false;
-Oid                CurrentExtensionObject = InvalidOid;
+bool       creating_extension = false;
+Oid            CurrentExtensionObject = InvalidOid;
 
 /*
  * Internal data structure to hold the results of parsing a control file
@@ -66,8 +66,8 @@ typedef struct ExtensionControlFile
 {
    char       *name;           /* name of the extension */
    char       *directory;      /* directory for script files */
-   char       *default_version; /* default install target version, if any */
-   char       *module_pathname; /* string to substitute for MODULE_PATHNAME */
+   char       *default_version;    /* default install target version, if any */
+   char       *module_pathname;    /* string to substitute for MODULE_PATHNAME */
    char       *comment;        /* comment, if any */
    char       *schema;         /* target schema (allowed if !relocatable) */
    bool        relocatable;    /* is ALTER EXTENSION SET SCHEMA supported? */
@@ -85,9 +85,9 @@ typedef struct ExtensionVersionInfo
    List       *reachable;      /* List of ExtensionVersionInfo's */
    bool        installable;    /* does this version have an install script? */
    /* working state for Dijkstra's algorithm: */
-   bool        distance_known; /* is distance from start known yet? */
+   bool        distance_known; /* is distance from start known yet? */
    int         distance;       /* current worst-case distance estimate */
-   struct ExtensionVersionInfo *previous; /* current best predecessor */
+   struct ExtensionVersionInfo *previous;      /* current best predecessor */
 } ExtensionVersionInfo;
 
 /* Local functions */
@@ -107,7 +107,7 @@ static void ApplyExtensionUpdates(Oid extensionOid,
 /*
  * get_extension_oid - given an extension name, look up the OID
  *
- * If missing_ok is false, throw an error if extension name not found.  If
+ * If missing_ok is false, throw an error if extension name not found. If
  * true, just return InvalidOid.
  */
 Oid
@@ -142,10 +142,10 @@ get_extension_oid(const char *extname, bool missing_ok)
    heap_close(rel, AccessShareLock);
 
    if (!OidIsValid(result) && !missing_ok)
-        ereport(ERROR,
-                (errcode(ERRCODE_UNDEFINED_OBJECT),
-                 errmsg("extension \"%s\" does not exist",
-                        extname)));
+       ereport(ERROR,
+               (errcode(ERRCODE_UNDEFINED_OBJECT),
+                errmsg("extension \"%s\" does not exist",
+                       extname)));
 
    return result;
 }
@@ -237,8 +237,8 @@ check_valid_extension_name(const char *extensionname)
    int         namelen = strlen(extensionname);
 
    /*
-    * Disallow empty names (the parser rejects empty identifiers anyway,
-    * but let's check).
+    * Disallow empty names (the parser rejects empty identifiers anyway, but
+    * let's check).
     */
    if (namelen == 0)
        ereport(ERROR,
@@ -256,16 +256,16 @@ check_valid_extension_name(const char *extensionname)
                 errdetail("Extension names must not contain \"--\".")));
 
    /*
-    * No leading or trailing dash either.  (We could probably allow this,
-    * but it would require much care in filename parsing and would make
-    * filenames visually if not formally ambiguous.  Since there's no
-    * real-world use case, let's just forbid it.)
+    * No leading or trailing dash either.  (We could probably allow this, but
+    * it would require much care in filename parsing and would make filenames
+    * visually if not formally ambiguous.  Since there's no real-world use
+    * case, let's just forbid it.)
     */
    if (extensionname[0] == '-' || extensionname[namelen - 1] == '-')
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
                 errmsg("invalid extension name: \"%s\"", extensionname),
-                errdetail("Extension names must not begin or end with \"-\".")));
+           errdetail("Extension names must not begin or end with \"-\".")));
 
    /*
     * No directory separators either (this is sufficient to prevent ".."
@@ -290,7 +290,7 @@ check_valid_version_name(const char *versionname)
    if (namelen == 0)
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                errmsg("invalid extension version name: \"%s\"", versionname),
+              errmsg("invalid extension version name: \"%s\"", versionname),
                 errdetail("Version names must not be empty.")));
 
    /*
@@ -299,7 +299,7 @@ check_valid_version_name(const char *versionname)
    if (strstr(versionname, "--"))
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                errmsg("invalid extension version name: \"%s\"", versionname),
+              errmsg("invalid extension version name: \"%s\"", versionname),
                 errdetail("Version names must not contain \"--\".")));
 
    /*
@@ -308,8 +308,8 @@ check_valid_version_name(const char *versionname)
    if (versionname[0] == '-' || versionname[namelen - 1] == '-')
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                errmsg("invalid extension version name: \"%s\"", versionname),
-                errdetail("Version names must not begin or end with \"-\".")));
+              errmsg("invalid extension version name: \"%s\"", versionname),
+             errdetail("Version names must not begin or end with \"-\".")));
 
    /*
     * No directory separators either (this is sufficient to prevent ".."
@@ -318,7 +318,7 @@ check_valid_version_name(const char *versionname)
    if (first_dir_separator(versionname) != NULL)
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                errmsg("invalid extension version name: \"%s\"", versionname),
+              errmsg("invalid extension version name: \"%s\"", versionname),
                 errdetail("Version names must not contain directory separator characters.")));
 }
 
@@ -386,7 +386,7 @@ get_extension_script_directory(ExtensionControlFile *control)
 
    get_share_path(my_exec_path, sharepath);
    result = (char *) palloc(MAXPGPATH);
-    snprintf(result, MAXPGPATH, "%s/%s", sharepath, control->directory);
+   snprintf(result, MAXPGPATH, "%s/%s", sharepath, control->directory);
 
    return result;
 }
@@ -434,7 +434,7 @@ get_extension_script_filename(ExtensionControlFile *control,
 
 /*
  * Parse contents of primary or auxiliary control file, and fill in
- * fields of *control.  We parse primary file if version == NULL,
+ * fields of *control. We parse primary file if version == NULL,
  * else the optional auxiliary file for that version.
  *
  * Control files are supposed to be very short, half a dozen lines,
@@ -448,8 +448,8 @@ parse_extension_control_file(ExtensionControlFile *control,
    char       *filename;
    FILE       *file;
    ConfigVariable *item,
-                  *head = NULL,
-                  *tail = NULL;
+              *head = NULL,
+              *tail = NULL;
 
    /*
     * Locate the file to read.  Auxiliary files are optional.
@@ -553,8 +553,8 @@ parse_extension_control_file(ExtensionControlFile *control,
                /* syntax error in name list */
                ereport(ERROR,
                        (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                        errmsg("parameter \"%s\" must be a list of extension names",
-                               item->name)));
+                errmsg("parameter \"%s\" must be a list of extension names",
+                       item->name)));
            }
        }
        else
@@ -632,12 +632,12 @@ static char *
 read_extension_script_file(const ExtensionControlFile *control,
                           const char *filename)
 {
-   int         src_encoding;
-   int         dest_encoding = GetDatabaseEncoding();
-   bytea      *content;
+   int         src_encoding;
+   int         dest_encoding = GetDatabaseEncoding();
+   bytea      *content;
    char       *src_str;
-   char       *dest_str;
-   int         len;
+   char       *dest_str;
+   int         len;
 
    content = read_binary_file(filename, 0, -1);
 
@@ -675,7 +675,7 @@ read_extension_script_file(const ExtensionControlFile *control,
  * filename is used only to report errors.
  *
  * Note: it's tempting to just use SPI to execute the string, but that does
- * not work very well.  The really serious problem is that SPI will parse,
+ * not work very well. The really serious problem is that SPI will parse,
  * analyze, and plan the whole string before executing any of it; of course
  * this fails if there are any plannable statements referring to objects
  * created earlier in the script.  A lesser annoyance is that SPI insists
@@ -774,7 +774,7 @@ execute_extension_script(Oid extensionOid, ExtensionControlFile *control,
                         List *requiredSchemas,
                         const char *schemaName, Oid schemaOid)
 {
-   char       *filename;
+   char       *filename;
    char       *save_client_min_messages,
               *save_log_min_messages,
               *save_search_path;
@@ -809,8 +809,8 @@ execute_extension_script(Oid extensionOid, ExtensionControlFile *control,
     * so that we won't spam the user with useless NOTICE messages from common
     * script actions like creating shell types.
     *
-    * We use the equivalent of SET LOCAL to ensure the setting is undone
-    * upon error.
+    * We use the equivalent of SET LOCAL to ensure the setting is undone upon
+    * error.
     */
    save_client_min_messages =
        pstrdup(GetConfigOption("client_min_messages", false));
@@ -832,8 +832,8 @@ execute_extension_script(Oid extensionOid, ExtensionControlFile *control,
     * makes the target schema be the default creation target namespace.
     *
     * Note: it might look tempting to use PushOverrideSearchPath for this,
-    * but we cannot do that.  We have to actually set the search_path GUC
-    * in case the extension script examines or changes it.
+    * but we cannot do that.  We have to actually set the search_path GUC in
+    * case the extension script examines or changes it.
     */
    save_search_path = pstrdup(GetConfigOption("search_path", false));
 
@@ -855,32 +855,32 @@ execute_extension_script(Oid extensionOid, ExtensionControlFile *control,
    /*
     * Set creating_extension and related variables so that
     * recordDependencyOnCurrentExtension and other functions do the right
-    * things.  On failure, ensure we reset these variables.
+    * things.  On failure, ensure we reset these variables.
     */
    creating_extension = true;
    CurrentExtensionObject = extensionOid;
    PG_TRY();
    {
-       char *sql = read_extension_script_file(control, filename);
+       char       *sql = read_extension_script_file(control, filename);
 
        /*
         * If it's not relocatable, substitute the target schema name for
         * occcurrences of @extschema@.
         *
-        * For a relocatable extension, we just run the script as-is.
-        * There cannot be any need for @extschema@, else it wouldn't
-        * be relocatable.
+        * For a relocatable extension, we just run the script as-is. There
+        * cannot be any need for @extschema@, else it wouldn't be
+        * relocatable.
         */
        if (!control->relocatable)
        {
-           const char   *qSchemaName = quote_identifier(schemaName);
+           const char *qSchemaName = quote_identifier(schemaName);
 
            sql = text_to_cstring(
-               DatumGetTextPP(
-                   DirectFunctionCall3(replace_text,
-                                       CStringGetTextDatum(sql),
-                                       CStringGetTextDatum("@extschema@"),
-                                       CStringGetTextDatum(qSchemaName))));
+                                 DatumGetTextPP(
+                                           DirectFunctionCall3(replace_text,
+                                                   CStringGetTextDatum(sql),
+                                         CStringGetTextDatum("@extschema@"),
+                                        CStringGetTextDatum(qSchemaName))));
        }
 
        /*
@@ -890,11 +890,11 @@ execute_extension_script(Oid extensionOid, ExtensionControlFile *control,
        if (control->module_pathname)
        {
            sql = text_to_cstring(
-               DatumGetTextPP(
-                   DirectFunctionCall3(replace_text,
-                                       CStringGetTextDatum(sql),
-                                       CStringGetTextDatum("MODULE_PATHNAME"),
-                                       CStringGetTextDatum(control->module_pathname))));
+                                 DatumGetTextPP(
+                                           DirectFunctionCall3(replace_text,
+                                                   CStringGetTextDatum(sql),
+                                     CStringGetTextDatum("MODULE_PATHNAME"),
+                           CStringGetTextDatum(control->module_pathname))));
        }
 
        execute_sql_string(sql, filename);
@@ -1004,7 +1004,7 @@ get_ext_ver_list(ExtensionControlFile *control)
    struct dirent *de;
 
    location = get_extension_script_directory(control);
-   dir  = AllocateDir(location);
+   dir = AllocateDir(location);
    while ((de = ReadDir(dir, location)) != NULL)
    {
        char       *vername;
@@ -1094,7 +1094,7 @@ identify_update_path(ExtensionControlFile *control,
  * is still good.
  *
  * Result is a List of names of versions to transition through (the initial
- * version is *not* included).  Returns NIL if no such path.
+ * version is *not* included). Returns NIL if no such path.
  */
 static List *
 find_update_path(List *evi_list,
@@ -1132,7 +1132,7 @@ find_update_path(List *evi_list,
        foreach(lc, evi->reachable)
        {
            ExtensionVersionInfo *evi2 = (ExtensionVersionInfo *) lfirst(lc);
-           int     newdist;
+           int         newdist;
 
            newdist = evi->distance + 1;
            if (newdist < evi2->distance)
@@ -1178,10 +1178,10 @@ CreateExtension(CreateExtensionStmt *stmt)
    DefElem    *d_schema = NULL;
    DefElem    *d_new_version = NULL;
    DefElem    *d_old_version = NULL;
-   char       *schemaName;
+   char       *schemaName;
    Oid         schemaOid;
-   char       *versionName;
-   char       *oldVersionName;
+   char       *versionName;
+   char       *oldVersionName;
    Oid         extowner = GetUserId();
    ExtensionControlFile *pcontrol;
    ExtensionControlFile *control;
@@ -1195,10 +1195,10 @@ CreateExtension(CreateExtensionStmt *stmt)
    check_valid_extension_name(stmt->extname);
 
    /*
-    * Check for duplicate extension name.  The unique index on
+    * Check for duplicate extension name.  The unique index on
     * pg_extension.extname would catch this anyway, and serves as a backstop
-    * in case of race conditions; but this is a friendlier error message,
-    * and besides we need a check to support IF NOT EXISTS.
+    * in case of race conditions; but this is a friendlier error message, and
+    * besides we need a check to support IF NOT EXISTS.
     */
    if (get_extension_oid(stmt->extname, true) != InvalidOid)
    {
@@ -1218,8 +1218,8 @@ CreateExtension(CreateExtensionStmt *stmt)
    }
 
    /*
-    * We use global variables to track the extension being created, so we
-    * can create only one extension at the same time.
+    * We use global variables to track the extension being created, so we can
+    * create only one extension at the same time.
     */
    if (creating_extension)
        ereport(ERROR,
@@ -1306,8 +1306,8 @@ CreateExtension(CreateExtensionStmt *stmt)
        if (list_length(updateVersions) == 1)
        {
            /*
-            * Simple case where there's just one update script to run.
-            * We will not need any follow-on update steps.
+            * Simple case where there's just one update script to run. We
+            * will not need any follow-on update steps.
             */
            Assert(strcmp((char *) linitial(updateVersions), versionName) == 0);
            updateVersions = NIL;
@@ -1351,9 +1351,9 @@ CreateExtension(CreateExtensionStmt *stmt)
            strcmp(control->schema, schemaName) != 0)
            ereport(ERROR,
                    (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                    errmsg("extension \"%s\" must be installed in schema \"%s\"",
-                           control->name,
-                           control->schema)));
+               errmsg("extension \"%s\" must be installed in schema \"%s\"",
+                      control->name,
+                      control->schema)));
 
        /* If the user is giving us the schema name, it must exist already */
        schemaOid = get_namespace_oid(schemaName, false);
@@ -1362,7 +1362,7 @@ CreateExtension(CreateExtensionStmt *stmt)
    {
        /*
         * The extension is not relocatable and the author gave us a schema
-        * for it.  We create the schema here if it does not already exist.
+        * for it.  We create the schema here if it does not already exist.
         */
        schemaName = control->schema;
        schemaOid = get_namespace_oid(schemaName, true);
@@ -1380,13 +1380,13 @@ CreateExtension(CreateExtensionStmt *stmt)
         * Else, use the current default creation namespace, which is the
         * first explicit entry in the search_path.
         */
-       List *search_path = fetch_search_path(false);
+       List       *search_path = fetch_search_path(false);
 
-       if (search_path == NIL)             /* probably can't happen */
+       if (search_path == NIL) /* probably can't happen */
            elog(ERROR, "there is no default creation target");
        schemaOid = linitial_oid(search_path);
        schemaName = get_namespace_name(schemaOid);
-       if (schemaName == NULL)             /* recently-deleted namespace? */
+       if (schemaName == NULL) /* recently-deleted namespace? */
            elog(ERROR, "there is no default creation target");
 
        list_free(search_path);
@@ -1397,13 +1397,13 @@ CreateExtension(CreateExtensionStmt *stmt)
     * extension script actually creates any objects there, it will fail if
     * the user doesn't have such permissions.  But there are cases such as
     * procedural languages where it's convenient to set schema = pg_catalog
-    * yet we don't want to restrict the command to users with ACL_CREATE
-    * for pg_catalog.
+    * yet we don't want to restrict the command to users with ACL_CREATE for
+    * pg_catalog.
     */
 
    /*
-    * Look up the prerequisite extensions, and build lists of their OIDs
-    * and the OIDs of their target schemas.
+    * Look up the prerequisite extensions, and build lists of their OIDs and
+    * the OIDs of their target schemas.
     */
    requiredExtensions = NIL;
    requiredSchemas = NIL;
@@ -1453,8 +1453,8 @@ CreateExtension(CreateExtensionStmt *stmt)
                             schemaName, schemaOid);
 
    /*
-    * If additional update scripts have to be executed, apply the updates
-    * as though a series of ALTER EXTENSION UPDATE commands were given
+    * If additional update scripts have to be executed, apply the updates as
+    * though a series of ALTER EXTENSION UPDATE commands were given
     */
    ApplyExtensionUpdates(extensionOid, pcontrol,
                          versionName, updateVersions);
@@ -1653,7 +1653,7 @@ RemoveExtensionById(Oid extId)
 
 /*
  * This function lists the available extensions (one row per primary control
- * file in the control directory).  We parse each control file and report the
+ * file in the control directory). We parse each control file and report the
  * interesting fields.
  *
  * The system view pg_available_extensions provides a user interface to this
@@ -1663,14 +1663,14 @@ RemoveExtensionById(Oid extId)
 Datum
 pg_available_extensions(PG_FUNCTION_ARGS)
 {
-   ReturnSetInfo      *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
-   TupleDesc           tupdesc;
-   Tuplestorestate    *tupstore;
-   MemoryContext       per_query_ctx;
-   MemoryContext       oldcontext;
-   char               *location;
-   DIR                *dir;
-   struct dirent      *de;
+   ReturnSetInfo *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
+   TupleDesc   tupdesc;
+   Tuplestorestate *tupstore;
+   MemoryContext per_query_ctx;
+   MemoryContext oldcontext;
+   char       *location;
+   DIR        *dir;
+   struct dirent *de;
 
    /* check to see if caller supports us returning a tuplestore */
    if (rsinfo == NULL || !IsA(rsinfo, ReturnSetInfo))
@@ -1699,11 +1699,11 @@ pg_available_extensions(PG_FUNCTION_ARGS)
    MemoryContextSwitchTo(oldcontext);
 
    location = get_extension_control_directory();
-   dir  = AllocateDir(location);
+   dir = AllocateDir(location);
 
    /*
-    * If the control directory doesn't exist, we want to silently return
-    * an empty set.  Any other error will be reported by ReadDir.
+    * If the control directory doesn't exist, we want to silently return an
+    * empty set.  Any other error will be reported by ReadDir.
     */
    if (dir == NULL && errno == ENOENT)
    {
@@ -1762,7 +1762,7 @@ pg_available_extensions(PG_FUNCTION_ARGS)
 
 /*
  * This function lists the available extension versions (one row per
- * extension installation script).  For each version, we parse the related
+ * extension installation script). For each version, we parse the related
  * control file(s) and report the interesting fields.
  *
  * The system view pg_available_extension_versions provides a user interface
@@ -1772,14 +1772,14 @@ pg_available_extensions(PG_FUNCTION_ARGS)
 Datum
 pg_available_extension_versions(PG_FUNCTION_ARGS)
 {
-   ReturnSetInfo      *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
-   TupleDesc           tupdesc;
-   Tuplestorestate    *tupstore;
-   MemoryContext       per_query_ctx;
-   MemoryContext       oldcontext;
-   char               *location;
-   DIR                *dir;
-   struct dirent      *de;
+   ReturnSetInfo *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
+   TupleDesc   tupdesc;
+   Tuplestorestate *tupstore;
+   MemoryContext per_query_ctx;
+   MemoryContext oldcontext;
+   char       *location;
+   DIR        *dir;
+   struct dirent *de;
 
    /* check to see if caller supports us returning a tuplestore */
    if (rsinfo == NULL || !IsA(rsinfo, ReturnSetInfo))
@@ -1808,11 +1808,11 @@ pg_available_extension_versions(PG_FUNCTION_ARGS)
    MemoryContextSwitchTo(oldcontext);
 
    location = get_extension_control_directory();
-   dir  = AllocateDir(location);
+   dir = AllocateDir(location);
 
    /*
-    * If the control directory doesn't exist, we want to silently return
-    * an empty set.  Any other error will be reported by ReadDir.
+    * If the control directory doesn't exist, we want to silently return an
+    * empty set.  Any other error will be reported by ReadDir.
     */
    if (dir == NULL && errno == ENOENT)
    {
@@ -1867,7 +1867,7 @@ get_available_versions_for_extension(ExtensionControlFile *pcontrol,
    struct dirent *de;
 
    location = get_extension_script_directory(pcontrol);
-   dir  = AllocateDir(location);
+   dir = AllocateDir(location);
    /* Note this will fail if script directory doesn't exist */
    while ((de = ReadDir(dir, location)) != NULL)
    {
@@ -1962,11 +1962,11 @@ Datum
 pg_extension_update_paths(PG_FUNCTION_ARGS)
 {
    Name        extname = PG_GETARG_NAME(0);
-   ReturnSetInfo      *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
-   TupleDesc           tupdesc;
-   Tuplestorestate    *tupstore;
-   MemoryContext       per_query_ctx;
-   MemoryContext       oldcontext;
+   ReturnSetInfo *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
+   TupleDesc   tupdesc;
+   Tuplestorestate *tupstore;
+   MemoryContext per_query_ctx;
+   MemoryContext oldcontext;
    List       *evi_list;
    ExtensionControlFile *control;
    ListCell   *lc1;
@@ -2079,8 +2079,8 @@ pg_extension_config_dump(PG_FUNCTION_ARGS)
    text       *wherecond = PG_GETARG_TEXT_P(1);
    char       *tablename;
    Relation    extRel;
-   ScanKeyData key[1];
-   SysScanDesc extScan;
+   ScanKeyData key[1];
+   SysScanDesc extScan;
    HeapTuple   extTup;
    Datum       arrayDatum;
    Datum       elementDatum;
@@ -2092,8 +2092,8 @@ pg_extension_config_dump(PG_FUNCTION_ARGS)
    ArrayType  *a;
 
    /*
-    * We only allow this to be called from an extension's SQL script.
-    * We shouldn't need any permissions check beyond that.
+    * We only allow this to be called from an extension's SQL script. We
+    * shouldn't need any permissions check beyond that.
     */
    if (!creating_extension)
        ereport(ERROR,
@@ -2103,8 +2103,8 @@ pg_extension_config_dump(PG_FUNCTION_ARGS)
 
    /*
     * Check that the table exists and is a member of the extension being
-    * created.  This ensures that we don't need to register a dependency
-    * to protect the extconfig entry.
+    * created.  This ensures that we don't need to register a dependency to
+    * protect the extconfig entry.
     */
    tablename = get_rel_name(tableoid);
    if (tablename == NULL)
@@ -2115,12 +2115,12 @@ pg_extension_config_dump(PG_FUNCTION_ARGS)
        CurrentExtensionObject)
        ereport(ERROR,
                (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
-                errmsg("table \"%s\" is not a member of the extension being created",
-                       tablename)));
+       errmsg("table \"%s\" is not a member of the extension being created",
+              tablename)));
 
    /*
-    * Add the table OID and WHERE condition to the extension's extconfig
-    * and extcondition arrays.
+    * Add the table OID and WHERE condition to the extension's extconfig and
+    * extcondition arrays.
     */
 
    /* Find the pg_extension tuple */
@@ -2136,7 +2136,7 @@ pg_extension_config_dump(PG_FUNCTION_ARGS)
 
    extTup = systable_getnext(extScan);
 
-   if (!HeapTupleIsValid(extTup)) /* should not happen */
+   if (!HeapTupleIsValid(extTup))      /* should not happen */
        elog(ERROR, "extension with oid %u does not exist",
             CurrentExtensionObject);
 
@@ -2162,7 +2162,7 @@ pg_extension_config_dump(PG_FUNCTION_ARGS)
        Assert(ARR_NDIM(a) == 1);
        Assert(ARR_LBOUND(a)[0] == 1);
 
-       arrayIndex = ARR_DIMS(a)[0] + 1; /* add after end */
+       arrayIndex = ARR_DIMS(a)[0] + 1;        /* add after end */
 
        a = array_set(a, 1, &arrayIndex,
                      elementDatum,
@@ -2193,7 +2193,7 @@ pg_extension_config_dump(PG_FUNCTION_ARGS)
        Assert(ARR_NDIM(a) == 1);
        Assert(ARR_LBOUND(a)[0] == 1);
 
-       arrayIndex = ARR_DIMS(a)[0] + 1; /* add after end */
+       arrayIndex = ARR_DIMS(a)[0] + 1;        /* add after end */
 
        a = array_set(a, 1, &arrayIndex,
                      elementDatum,
@@ -2231,12 +2231,12 @@ AlterExtensionNamespace(List *names, const char *newschema)
    Oid         oldNspOid = InvalidOid;
    AclResult   aclresult;
    Relation    extRel;
-   ScanKeyData key[2];
-   SysScanDesc extScan;
+   ScanKeyData key[2];
+   SysScanDesc extScan;
    HeapTuple   extTup;
    Form_pg_extension extForm;
    Relation    depRel;
-   SysScanDesc depScan;
+   SysScanDesc depScan;
    HeapTuple   depTup;
 
    if (list_length(names) != 1)
@@ -2275,7 +2275,7 @@ AlterExtensionNamespace(List *names, const char *newschema)
 
    extTup = systable_getnext(extScan);
 
-   if (!HeapTupleIsValid(extTup)) /* should not happen */
+   if (!HeapTupleIsValid(extTup))      /* should not happen */
        elog(ERROR, "extension with oid %u does not exist", extensionOid);
 
    /* Copy tuple so we can modify it below */
@@ -2285,8 +2285,8 @@ AlterExtensionNamespace(List *names, const char *newschema)
    systable_endscan(extScan);
 
    /*
-    * If the extension is already in the target schema, just silently
-    * do nothing.
+    * If the extension is already in the target schema, just silently do
+    * nothing.
     */
    if (extForm->extnamespace == nspOid)
    {
@@ -2323,10 +2323,10 @@ AlterExtensionNamespace(List *names, const char *newschema)
    {
        Form_pg_depend pg_depend = (Form_pg_depend) GETSTRUCT(depTup);
        ObjectAddress dep;
-       Oid dep_oldNspOid;
+       Oid         dep_oldNspOid;
 
        /*
-        * Ignore non-membership dependencies.  (Currently, the only other
+        * Ignore non-membership dependencies.  (Currently, the only other
         * case we could see here is a normal dependency from another
         * extension.)
         */
@@ -2388,13 +2388,13 @@ void
 ExecAlterExtensionStmt(AlterExtensionStmt *stmt)
 {
    DefElem    *d_new_version = NULL;
-   char       *versionName;
-   char       *oldVersionName;
+   char       *versionName;
+   char       *oldVersionName;
    ExtensionControlFile *control;
    Oid         extensionOid;
    Relation    extRel;
-   ScanKeyData key[1];
-   SysScanDesc extScan;
+   ScanKeyData key[1];
+   SysScanDesc extScan;
    HeapTuple   extTup;
    List       *updateVersions;
    Datum       datum;
@@ -2402,8 +2402,8 @@ ExecAlterExtensionStmt(AlterExtensionStmt *stmt)
    ListCell   *lc;
 
    /*
-    * We use global variables to track the extension being created, so we
-    * can create/update only one extension at the same time.
+    * We use global variables to track the extension being created, so we can
+    * create/update only one extension at the same time.
     */
    if (creating_extension)
        ereport(ERROR,
@@ -2426,10 +2426,10 @@ ExecAlterExtensionStmt(AlterExtensionStmt *stmt)
    extTup = systable_getnext(extScan);
 
    if (!HeapTupleIsValid(extTup))
-        ereport(ERROR,
-                (errcode(ERRCODE_UNDEFINED_OBJECT),
-                 errmsg("extension \"%s\" does not exist",
-                        stmt->extname)));
+       ereport(ERROR,
+               (errcode(ERRCODE_UNDEFINED_OBJECT),
+                errmsg("extension \"%s\" does not exist",
+                       stmt->extname)));
 
    extensionOid = HeapTupleGetOid(extTup);
 
@@ -2499,8 +2499,8 @@ ExecAlterExtensionStmt(AlterExtensionStmt *stmt)
    if (strcmp(oldVersionName, versionName) == 0)
    {
        ereport(NOTICE,
-               (errmsg("version \"%s\" of extension \"%s\" is already installed",
-                       versionName, stmt->extname)));
+          (errmsg("version \"%s\" of extension \"%s\" is already installed",
+                  versionName, stmt->extname)));
        return;
    }
 
@@ -2545,8 +2545,8 @@ ApplyExtensionUpdates(Oid extensionOid,
        List       *requiredExtensions;
        List       *requiredSchemas;
        Relation    extRel;
-       ScanKeyData key[1];
-       SysScanDesc extScan;
+       ScanKeyData key[1];
+       SysScanDesc extScan;
        HeapTuple   extTup;
        Form_pg_extension extForm;
        Datum       values[Natts_pg_extension];
@@ -2573,7 +2573,7 @@ ApplyExtensionUpdates(Oid extensionOid,
 
        extTup = systable_getnext(extScan);
 
-       if (!HeapTupleIsValid(extTup)) /* should not happen */
+       if (!HeapTupleIsValid(extTup))  /* should not happen */
            elog(ERROR, "extension with oid %u does not exist",
                 extensionOid);
 
@@ -2668,9 +2668,9 @@ ApplyExtensionUpdates(Oid extensionOid,
                                 schemaName, schemaOid);
 
        /*
-        * Update prior-version name and loop around.  Since execute_sql_string
-        * did a final CommandCounterIncrement, we can update the pg_extension
-        * row again.
+        * Update prior-version name and loop around.  Since
+        * execute_sql_string did a final CommandCounterIncrement, we can
+        * update the pg_extension row again.
         */
        oldVersionName = versionName;
    }
@@ -2682,10 +2682,10 @@ ApplyExtensionUpdates(Oid extensionOid,
 void
 ExecAlterExtensionContentsStmt(AlterExtensionContentsStmt *stmt)
 {
-   ObjectAddress   extension;
-   ObjectAddress   object;
-   Relation        relation;
-   Oid             oldExtension;
+   ObjectAddress extension;
+   ObjectAddress object;
+   Relation    relation;
+   Oid         oldExtension;
 
    extension.classId = ExtensionRelationId;
    extension.objectId = get_extension_oid(stmt->extname, false);
@@ -2697,10 +2697,10 @@ ExecAlterExtensionContentsStmt(AlterExtensionContentsStmt *stmt)
                       stmt->extname);
 
    /*
-    * Translate the parser representation that identifies the object into
-    * an ObjectAddress.  get_object_address() will throw an error if the
-    * object does not exist, and will also acquire a lock on the object to
-    * guard against concurrent DROP and ALTER EXTENSION ADD/DROP operations.
+    * Translate the parser representation that identifies the object into an
+    * ObjectAddress.  get_object_address() will throw an error if the object
+    * does not exist, and will also acquire a lock on the object to guard
+    * against concurrent DROP and ALTER EXTENSION ADD/DROP operations.
     */
    object = get_object_address(stmt->objtype, stmt->objname, stmt->objargs,
                                &relation, ShareUpdateExclusiveLock);
index 13d6d882f8852989163e04c759bf71410c4977a0..21d52e06ba035fa095ce029e0fc5f49970c2d3ff 100644 (file)
@@ -586,8 +586,8 @@ AlterForeignDataWrapper(AlterFdwStmt *stmt)
         */
        if (OidIsValid(fdwvalidator))
            ereport(WARNING,
-                   (errmsg("changing the foreign-data wrapper validator can cause "
-                           "the options for dependent objects to become invalid")));
+            (errmsg("changing the foreign-data wrapper validator can cause "
+                    "the options for dependent objects to become invalid")));
    }
    else
    {
@@ -643,8 +643,8 @@ AlterForeignDataWrapper(AlterFdwStmt *stmt)
        ObjectAddress referenced;
 
        /*
-        * Flush all existing dependency records of this FDW on functions;
-        * we assume there can be none other than the ones we are fixing.
+        * Flush all existing dependency records of this FDW on functions; we
+        * assume there can be none other than the ones we are fixing.
         */
        deleteDependencyRecordsForClass(ForeignDataWrapperRelationId,
                                        fdwId,
index c8cbe035f057e7103a1d0608b3a68c55f7f7fa66..03da168ff2c14d1ef1e414f7481ba7e72cd377b5 100644 (file)
@@ -1665,7 +1665,7 @@ CreateCast(CreateCastStmt *stmt)
         * We also disallow creating binary-compatibility casts involving
         * domains.  Casting from a domain to its base type is already
         * allowed, and casting the other way ought to go through domain
-        * coercion to permit constraint checking.  Again, if you're intent on
+        * coercion to permit constraint checking.  Again, if you're intent on
         * having your own semantics for that, create a no-op cast function.
         *
         * NOTE: if we were to relax this, the above checks for composites
@@ -1830,7 +1830,7 @@ DropCast(DropCastStmt *stmt)
 Oid
 get_cast_oid(Oid sourcetypeid, Oid targettypeid, bool missing_ok)
 {
-   Oid     oid;
+   Oid         oid;
 
    oid = GetSysCacheOid2(CASTSOURCETARGET,
                          ObjectIdGetDatum(sourcetypeid),
index cfcce559675a177d9f9afb0f51c44797c506194e..05e8234a0f223c4616cdcd90a2d746c260d1d497 100644 (file)
@@ -395,7 +395,7 @@ DefineIndex(RangeVar *heapRelation,
    indexRelationId =
        index_create(rel, indexRelationName, indexRelationId,
                     indexInfo, indexColNames,
-                    accessMethodId, tablespaceId, collationObjectId, classObjectId,
+             accessMethodId, tablespaceId, collationObjectId, classObjectId,
                     coloptions, reloptions, primary,
                     isconstraint, deferrable, initdeferred,
                     allowSystemTableMods,
@@ -840,14 +840,14 @@ ComputeIndexAttrs(IndexInfo *indexInfo,
        else
        {
            /* Index expression */
-           Node   *expr = attribute->expr;
+           Node       *expr = attribute->expr;
 
            Assert(expr != NULL);
            atttype = exprType(expr);
            attcollation = exprCollation(expr);
 
            /*
-            * Strip any top-level COLLATE clause.  This ensures that we treat
+            * Strip any top-level COLLATE clause.  This ensures that we treat
             * "x COLLATE y" and "(x COLLATE y)" alike.
             */
            while (IsA(expr, CollateExpr))
@@ -864,7 +864,7 @@ ComputeIndexAttrs(IndexInfo *indexInfo,
            }
            else
            {
-               indexInfo->ii_KeyAttrNumbers[attn] = 0; /* marks expression */
+               indexInfo->ii_KeyAttrNumbers[attn] = 0; /* marks expression */
                indexInfo->ii_Expressions = lappend(indexInfo->ii_Expressions,
                                                    expr);
 
@@ -876,7 +876,7 @@ ComputeIndexAttrs(IndexInfo *indexInfo,
                if (contain_subplans(expr))
                    ereport(ERROR,
                            (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                            errmsg("cannot use subquery in index expression")));
+                        errmsg("cannot use subquery in index expression")));
                if (contain_agg_clause(expr))
                    ereport(ERROR,
                            (errcode(ERRCODE_GROUPING_ERROR),
@@ -904,8 +904,8 @@ ComputeIndexAttrs(IndexInfo *indexInfo,
        /*
         * Check we have a collation iff it's a collatable type.  The only
         * expected failures here are (1) COLLATE applied to a noncollatable
-        * type, or (2) index expression had an unresolved collation.  But
-        * we might as well code this to be a complete consistency check.
+        * type, or (2) index expression had an unresolved collation.  But we
+        * might as well code this to be a complete consistency check.
         */
        if (type_is_collatable(atttype))
        {
index 68072dd42184de43b18143d333cc6196eaf0fdf8..aff5ac6ec43ba15e02ac7450a8e76af3b5f25751 100644 (file)
@@ -126,7 +126,7 @@ OpFamilyCacheLookup(Oid amID, List *opfamilyname, bool missing_ok)
 
    if (!HeapTupleIsValid(htup) && !missing_ok)
    {
-       HeapTuple amtup;
+       HeapTuple   amtup;
 
        amtup = SearchSysCache1(AMOID, ObjectIdGetDatum(amID));
        if (!HeapTupleIsValid(amtup))
@@ -134,8 +134,8 @@ OpFamilyCacheLookup(Oid amID, List *opfamilyname, bool missing_ok)
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_OBJECT),
                 errmsg("operator family \"%s\" does not exist for access method \"%s\"",
-                  NameListToString(opfamilyname),
-                  NameStr(((Form_pg_am) GETSTRUCT(amtup))->amname))));
+                       NameListToString(opfamilyname),
+                       NameStr(((Form_pg_am) GETSTRUCT(amtup))->amname))));
    }
 
    return htup;
@@ -143,7 +143,7 @@ OpFamilyCacheLookup(Oid amID, List *opfamilyname, bool missing_ok)
 
 /*
  * get_opfamily_oid
- *    find an opfamily OID by possibly qualified name
+ *   find an opfamily OID by possibly qualified name
  *
  * If not found, returns InvalidOid if missing_ok, else throws error.
  */
@@ -202,7 +202,7 @@ OpClassCacheLookup(Oid amID, List *opclassname, bool missing_ok)
 
    if (!HeapTupleIsValid(htup) && !missing_ok)
    {
-       HeapTuple amtup;
+       HeapTuple   amtup;
 
        amtup = SearchSysCache1(AMOID, ObjectIdGetDatum(amID));
        if (!HeapTupleIsValid(amtup))
@@ -219,7 +219,7 @@ OpClassCacheLookup(Oid amID, List *opclassname, bool missing_ok)
 
 /*
  * get_opclass_oid
- *    find an opclass OID by possibly qualified name
+ *   find an opclass OID by possibly qualified name
  *
  * If not found, returns InvalidOid if missing_ok, else throws error.
  */
@@ -1088,11 +1088,11 @@ assignOperTypes(OpFamilyMember *member, Oid amoid, Oid typeoid)
    if (OidIsValid(member->sortfamily))
    {
        /*
-        * Ordering op, check index supports that.  (We could perhaps also
+        * Ordering op, check index supports that.  (We could perhaps also
         * check that the operator returns a type supported by the sortfamily,
         * but that seems more trouble than it's worth here.  If it does not,
-        * the operator will never be matchable to any ORDER BY clause, but
-        * no worse consequences can ensue.  Also, trying to check that would
+        * the operator will never be matchable to any ORDER BY clause, but no
+        * worse consequences can ensue.  Also, trying to check that would
         * create an ordering hazard during dump/reload: it's possible that
         * the family has been created but not yet populated with the required
         * operators.)
@@ -1108,8 +1108,8 @@ assignOperTypes(OpFamilyMember *member, Oid amoid, Oid typeoid)
        if (!pg_am->amcanorderbyop)
            ereport(ERROR,
                    (errcode(ERRCODE_INVALID_OBJECT_DEFINITION),
-                    errmsg("access method \"%s\" does not support ordering operators",
-                           NameStr(pg_am->amname))));
+           errmsg("access method \"%s\" does not support ordering operators",
+                  NameStr(pg_am->amname))));
 
        ReleaseSysCache(amtup);
    }
@@ -1276,7 +1276,7 @@ storeOperators(List *opfamilyname, Oid amoid,
    foreach(l, operators)
    {
        OpFamilyMember *op = (OpFamilyMember *) lfirst(l);
-       char    oppurpose;
+       char        oppurpose;
 
        /*
         * If adding to an existing family, check for conflict with an
@@ -1566,7 +1566,7 @@ RemoveOpClass(RemoveOpClassStmt *stmt)
    {
        ereport(NOTICE,
                (errmsg("operator class \"%s\" does not exist for access method \"%s\"",
-                   NameListToString(stmt->opclassname), stmt->amname)));
+                       NameListToString(stmt->opclassname), stmt->amname)));
        return;
    }
 
@@ -1617,7 +1617,7 @@ RemoveOpFamily(RemoveOpFamilyStmt *stmt)
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_OBJECT),
                 errmsg("operator family \"%s\" does not exist for access method \"%s\"",
-                  NameListToString(stmt->opfamilyname), stmt->amname)));
+                       NameListToString(stmt->opfamilyname), stmt->amname)));
        return;
    }
 
@@ -2029,7 +2029,7 @@ AlterOpClassNamespace(List *name, char *access_method, const char *newschema)
 Oid
 AlterOpClassNamespace_oid(Oid opclassOid, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(OperatorClassRelationId, RowExclusiveLock);
@@ -2238,7 +2238,7 @@ AlterOpFamilyNamespace(List *name, char *access_method, const char *newschema)
 Oid
 AlterOpFamilyNamespace_oid(Oid opfamilyOid, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(OperatorFamilyRelationId, RowExclusiveLock);
index b4374a62f4f0830bfb7b91b8326b314584260884..c99de4b240f6a88de5a437e74161e3598d854138 100644 (file)
@@ -464,7 +464,8 @@ AlterOperatorNamespace(List *names, List *argtypes, const char *newschema)
    List       *operatorName = names;
    TypeName   *typeName1 = (TypeName *) linitial(argtypes);
    TypeName   *typeName2 = (TypeName *) lsecond(argtypes);
-   Oid         operOid, nspOid;
+   Oid         operOid,
+               nspOid;
    Relation    rel;
 
    rel = heap_open(OperatorRelationId, RowExclusiveLock);
@@ -490,7 +491,7 @@ AlterOperatorNamespace(List *names, List *argtypes, const char *newschema)
 Oid
 AlterOperatorNamespace_oid(Oid operOid, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(OperatorRelationId, RowExclusiveLock);
index 60aca3ce8ec21999ced1b5605afcfe78516a355f..89086aa371738620f049993a328525bc88209a65 100644 (file)
@@ -255,10 +255,10 @@ PortalCleanup(Portal portal)
    if (queryDesc)
    {
        /*
-        * Reset the queryDesc before anything else.  This prevents us
-        * from trying to shut down the executor twice, in case of an
-        * error below.  The transaction abort mechanisms will take care
-        * of resource cleanup in such a case.
+        * Reset the queryDesc before anything else.  This prevents us from
+        * trying to shut down the executor twice, in case of an error below.
+        * The transaction abort mechanisms will take care of resource cleanup
+        * in such a case.
         */
        portal->queryDesc = NULL;
 
index adbf5872f38dc32f4bd8540b1b3fa0a89c65c9d2..dfa2ab00262222a2ff9974c53bad751f5ca82959 100644 (file)
@@ -382,7 +382,7 @@ EvaluateParams(PreparedStatement *pstmt, List *params,
    /* sizeof(ParamListInfoData) includes the first array element */
    paramLI = (ParamListInfo)
        palloc(sizeof(ParamListInfoData) +
-              (num_params - 1) *sizeof(ParamExternData));
+              (num_params - 1) * sizeof(ParamExternData));
    /* we have static list of params, so no hooks needed */
    paramLI->paramFetch = NULL;
    paramLI->paramFetchArg = NULL;
index 1c96b005d7f5f507bccd748da96ab6911a8f532b..7afb7139a6315347a02dfe90d8eb97a1c9ba0d22 100644 (file)
@@ -1,7 +1,7 @@
 /* -------------------------------------------------------------------------
  *
  * seclabel.c
- *    routines to support security label feature.
+ *   routines to support security label feature.
  *
  * Portions Copyright (c) 1996-2011, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
@@ -28,7 +28,7 @@
 typedef struct
 {
    const char *provider_name;
-   check_object_relabel_type   hook;
+   check_object_relabel_type hook;
 } LabelProvider;
 
 static List *label_provider_list = NIL;
@@ -42,9 +42,9 @@ void
 ExecSecLabelStmt(SecLabelStmt *stmt)
 {
    LabelProvider *provider = NULL;
-   ObjectAddress   address;
-   Relation        relation;
-   ListCell       *lc;
+   ObjectAddress address;
+   Relation    relation;
+   ListCell   *lc;
 
    /*
     * Find the named label provider, or if none specified, check whether
@@ -55,16 +55,16 @@ ExecSecLabelStmt(SecLabelStmt *stmt)
        if (label_provider_list == NIL)
            ereport(ERROR,
                    (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                errmsg("no security label providers have been loaded")));
+                    errmsg("no security label providers have been loaded")));
        if (lnext(list_head(label_provider_list)) != NULL)
            ereport(ERROR,
                    (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                errmsg("must specify provider when multiple security label providers have been loaded")));
+                    errmsg("must specify provider when multiple security label providers have been loaded")));
        provider = (LabelProvider *) linitial(label_provider_list);
    }
    else
    {
-       foreach (lc, label_provider_list)
+       foreach(lc, label_provider_list)
        {
            LabelProvider *lp = lfirst(lc);
 
@@ -82,10 +82,10 @@ ExecSecLabelStmt(SecLabelStmt *stmt)
    }
 
    /*
-    * Translate the parser representation which identifies this object
-    * into an ObjectAddress. get_object_address() will throw an error if
-     * the object does not exist, and will also acquire a lock on the
-     * target to guard against concurrent modifications.
+    * Translate the parser representation which identifies this object into
+    * an ObjectAddress. get_object_address() will throw an error if the
+    * object does not exist, and will also acquire a lock on the target to
+    * guard against concurrent modifications.
     */
    address = get_object_address(stmt->objtype, stmt->objname, stmt->objargs,
                                 &relation, ShareUpdateExclusiveLock);
@@ -98,6 +98,7 @@ ExecSecLabelStmt(SecLabelStmt *stmt)
    switch (stmt->objtype)
    {
        case OBJECT_COLUMN:
+
            /*
             * Allow security labels only on columns of tables, views,
             * composite types, and foreign tables (which are the only
@@ -117,7 +118,7 @@ ExecSecLabelStmt(SecLabelStmt *stmt)
    }
 
    /* Provider gets control here, may throw ERROR to veto new label. */
-   (*provider->hook)(&address, stmt->label);
+   (*provider->hook) (&address, stmt->label);
 
    /* Apply new label. */
    SetSecurityLabel(&address, provider->provider_name, stmt->label);
@@ -140,8 +141,8 @@ char *
 GetSecurityLabel(const ObjectAddress *object, const char *provider)
 {
    Relation    pg_seclabel;
-   ScanKeyData keys[4];
-   SysScanDesc scan;
+   ScanKeyData keys[4];
+   SysScanDesc scan;
    HeapTuple   tuple;
    Datum       datum;
    bool        isnull;
@@ -196,8 +197,8 @@ SetSecurityLabel(const ObjectAddress *object,
                 const char *provider, const char *label)
 {
    Relation    pg_seclabel;
-   ScanKeyData keys[4];
-   SysScanDesc scan;
+   ScanKeyData keys[4];
+   SysScanDesc scan;
    HeapTuple   oldtup;
    HeapTuple   newtup = NULL;
    Datum       values[Natts_pg_seclabel];
@@ -281,8 +282,8 @@ void
 DeleteSecurityLabel(const ObjectAddress *object)
 {
    Relation    pg_seclabel;
-   ScanKeyData skey[3];
-   SysScanDesc scan;
+   ScanKeyData skey[3];
+   SysScanDesc scan;
    HeapTuple   oldtup;
    int         nkeys;
 
@@ -323,8 +324,8 @@ DeleteSecurityLabel(const ObjectAddress *object)
 void
 register_label_provider(const char *provider_name, check_object_relabel_type hook)
 {
-   LabelProvider  *provider;
-   MemoryContext   oldcxt;
+   LabelProvider *provider;
+   MemoryContext oldcxt;
 
    oldcxt = MemoryContextSwitchTo(TopMemoryContext);
    provider = palloc(sizeof(LabelProvider));
index bfa94a0c1149b740bfd648617fe69c37da9a1523..6a91a102dcd3f4e4d3ceca558c59ed1247bae831 100644 (file)
@@ -287,7 +287,7 @@ ResetSequence(Oid seq_relid)
    seq->log_cnt = 1;
 
    /*
-    * Create a new storage file for the sequence.  We want to keep the
+    * Create a new storage file for the sequence.  We want to keep the
     * sequence's relfrozenxid at 0, since it won't contain any unfrozen XIDs.
     */
    RelationSetNewRelfilenode(seq_rel, InvalidTransactionId);
@@ -1037,7 +1037,7 @@ init_sequence(Oid relid, SeqTable *p_elm, Relation *p_rel)
 
    /*
     * If the sequence has been transactionally replaced since we last saw it,
-    * discard any cached-but-unissued values.  We do not touch the currval()
+    * discard any cached-but-unissued values.  We do not touch the currval()
     * state, however.
     */
    if (seqrel->rd_rel->relfilenode != elm->filenode)
index 886b656b4376e51b920714b24ce983c9d4342a26..790bc2a521555627029d7250cca81db9aeb25e67 100644 (file)
@@ -286,9 +286,9 @@ static void ATWrongRelkindError(Relation rel, int allowed_targets);
 static void ATSimpleRecursion(List **wqueue, Relation rel,
                  AlterTableCmd *cmd, bool recurse, LOCKMODE lockmode);
 static void ATTypedTableRecursion(List **wqueue, Relation rel, AlterTableCmd *cmd,
-                                 LOCKMODE lockmode);
+                     LOCKMODE lockmode);
 static List *find_typed_table_dependencies(Oid typeOid, const char *typeName,
-                                          DropBehavior behavior);
+                             DropBehavior behavior);
 static void ATPrepAddColumn(List **wqueue, Relation rel, bool recurse, bool recursing,
                AlterTableCmd *cmd, LOCKMODE lockmode);
 static void ATExecAddColumn(List **wqueue, AlteredTableInfo *tab, Relation rel,
@@ -311,7 +311,7 @@ static void ATExecSetOptions(Relation rel, const char *colName,
 static void ATExecSetStorage(Relation rel, const char *colName,
                 Node *newValue, LOCKMODE lockmode);
 static void ATPrepDropColumn(List **wqueue, Relation rel, bool recurse, bool recursing,
-                            AlterTableCmd *cmd, LOCKMODE lockmode);
+                AlterTableCmd *cmd, LOCKMODE lockmode);
 static void ATExecDropColumn(List **wqueue, Relation rel, const char *colName,
                 DropBehavior behavior,
                 bool recurse, bool recursing,
@@ -320,9 +320,9 @@ static void ATExecAddIndex(AlteredTableInfo *tab, Relation rel,
               IndexStmt *stmt, bool is_rebuild, LOCKMODE lockmode);
 static void ATExecAddConstraint(List **wqueue,
                    AlteredTableInfo *tab, Relation rel,
-                   Constraint *newConstraint, bool recurse, LOCKMODE lockmode);
+                Constraint *newConstraint, bool recurse, LOCKMODE lockmode);
 static void ATExecAddIndexConstraint(AlteredTableInfo *tab, Relation rel,
-              IndexStmt *stmt, LOCKMODE lockmode);
+                        IndexStmt *stmt, LOCKMODE lockmode);
 static void ATAddCheckConstraint(List **wqueue,
                     AlteredTableInfo *tab, Relation rel,
                     Constraint *constr,
@@ -339,7 +339,7 @@ static void ATPrepAlterColumnType(List **wqueue,
                      AlterTableCmd *cmd, LOCKMODE lockmode);
 static bool ATColumnChangeRequiresRewrite(Node *expr, AttrNumber varattno);
 static void ATExecAlterColumnType(AlteredTableInfo *tab, Relation rel,
-                                 AlterTableCmd *cmd, LOCKMODE lockmode);
+                     AlterTableCmd *cmd, LOCKMODE lockmode);
 static void ATPostAlterTypeCleanup(List **wqueue, AlteredTableInfo *tab, LOCKMODE lockmode);
 static void ATPostAlterTypeParse(char *cmd, List **wqueue, LOCKMODE lockmode);
 static void change_owner_recurse_to_sequences(Oid relationOid,
@@ -351,7 +351,7 @@ static void ATPrepSetTableSpace(AlteredTableInfo *tab, Relation rel,
 static void ATExecSetTableSpace(Oid tableOid, Oid newTableSpace, LOCKMODE lockmode);
 static void ATExecSetRelOptions(Relation rel, List *defList, bool isReset, LOCKMODE lockmode);
 static void ATExecEnableDisableTrigger(Relation rel, char *trigname,
-                          char fires_when, bool skip_system, LOCKMODE lockmode);
+                      char fires_when, bool skip_system, LOCKMODE lockmode);
 static void ATExecEnableDisableRule(Relation rel, char *rulename,
                        char fires_when, LOCKMODE lockmode);
 static void ATPrepAddInherit(Relation child_rel);
@@ -412,7 +412,7 @@ DefineRelation(CreateStmt *stmt, char relkind, Oid ownerId)
    /*
     * Check consistency of arguments
     */
-   if (stmt->oncommit != ONCOMMIT_NOOP 
+   if (stmt->oncommit != ONCOMMIT_NOOP
        && stmt->relation->relpersistence != RELPERSISTENCE_TEMP)
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_TABLE_DEFINITION),
@@ -547,7 +547,7 @@ DefineRelation(CreateStmt *stmt, char relkind, Oid ownerId)
            if (relkind == RELKIND_FOREIGN_TABLE)
                ereport(ERROR,
                        (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-                    errmsg("default values on foreign tables are not supported")));
+                        errmsg("default values on foreign tables are not supported")));
 
            Assert(colDef->cooked_default == NULL);
 
@@ -706,7 +706,7 @@ DropErrorMsgWrongType(const char *relname, char wrongkind, char rightkind)
 /*
  * RemoveRelations
  *     Implements DROP TABLE, DROP INDEX, DROP SEQUENCE, DROP VIEW,
- *      DROP FOREIGN TABLE
+ *     DROP FOREIGN TABLE
  */
 void
 RemoveRelations(DropStmt *drop)
@@ -1454,11 +1454,11 @@ MergeAttributes(List *schema, List *supers, char relpersistence,
                if (defCollId != attribute->attcollation)
                    ereport(ERROR,
                            (errcode(ERRCODE_COLLATION_MISMATCH),
-                            errmsg("inherited column \"%s\" has a collation conflict",
-                                   attributeName),
+                   errmsg("inherited column \"%s\" has a collation conflict",
+                          attributeName),
                             errdetail("\"%s\" versus \"%s\"",
                                       get_collation_name(defCollId),
-                                      get_collation_name(attribute->attcollation))));
+                             get_collation_name(attribute->attcollation))));
 
                /* Copy storage parameter */
                if (def->storage == 0)
@@ -2061,8 +2061,8 @@ renameatt_internal(Oid myrelid,
        relkind != RELKIND_FOREIGN_TABLE)
        ereport(ERROR,
                (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-              errmsg("\"%s\" is not a table, view, composite type, index or foreign table",
-                     RelationGetRelationName(targetrelation))));
+                errmsg("\"%s\" is not a table, view, composite type, index or foreign table",
+                       RelationGetRelationName(targetrelation))));
 
    /*
     * permissions checking.  only the owner of a class can change its schema.
@@ -2138,7 +2138,7 @@ renameatt_internal(Oid myrelid,
        ListCell   *lo;
 
        child_oids = find_typed_table_dependencies(targetrelation->rd_rel->reltype,
-                                                  RelationGetRelationName(targetrelation),
+                                    RelationGetRelationName(targetrelation),
                                                   behavior);
 
        foreach(lo, child_oids)
@@ -2211,11 +2211,11 @@ void
 renameatt(Oid myrelid, RenameStmt *stmt)
 {
    renameatt_internal(myrelid,
-                      stmt->subname,       /* old att name */
-                      stmt->newname,       /* new att name */
-                      interpretInhOption(stmt->relation->inhOpt),  /* recursive? */
-                      false,  /* recursing? */
-                      0,   /* expected inhcount */
+                      stmt->subname,   /* old att name */
+                      stmt->newname,   /* new att name */
+                      interpretInhOption(stmt->relation->inhOpt),      /* recursive? */
+                      false,   /* recursing? */
+                      0,       /* expected inhcount */
                       stmt->behavior);
 }
 
@@ -2460,7 +2460,7 @@ void
 AlterTable(AlterTableStmt *stmt)
 {
    Relation    rel;
-   LOCKMODE lockmode = AlterTableGetLockLevel(stmt->cmds);
+   LOCKMODE    lockmode = AlterTableGetLockLevel(stmt->cmds);
 
    /*
     * Acquire same level of lock as already acquired during parsing.
@@ -2531,7 +2531,7 @@ AlterTable(AlterTableStmt *stmt)
    }
 
    ATController(rel, stmt->cmds, interpretInhOption(stmt->relation->inhOpt),
-                       lockmode);
+                lockmode);
 }
 
 /*
@@ -2549,7 +2549,7 @@ void
 AlterTableInternal(Oid relid, List *cmds, bool recurse)
 {
    Relation    rel;
-   LOCKMODE lockmode = AlterTableGetLockLevel(cmds);
+   LOCKMODE    lockmode = AlterTableGetLockLevel(cmds);
 
    rel = relation_open(relid, lockmode);
 
@@ -2581,31 +2581,33 @@ LOCKMODE
 AlterTableGetLockLevel(List *cmds)
 {
    ListCell   *lcmd;
-   LOCKMODE lockmode = ShareUpdateExclusiveLock;
+   LOCKMODE    lockmode = ShareUpdateExclusiveLock;
 
    foreach(lcmd, cmds)
    {
        AlterTableCmd *cmd = (AlterTableCmd *) lfirst(lcmd);
-       LOCKMODE cmd_lockmode  = AccessExclusiveLock; /* default for compiler */
+       LOCKMODE    cmd_lockmode = AccessExclusiveLock; /* default for compiler */
 
        switch (cmd->subtype)
        {
-           /*
-            * Need AccessExclusiveLock for these subcommands because they
-            * affect or potentially affect both read and write operations.
-            *
-            * New subcommand types should be added here by default.
-            */
-           case AT_AddColumn:          /* may rewrite heap, in some cases and visible to SELECT */
-           case AT_DropColumn:         /* change visible to SELECT */
+               /*
+                * Need AccessExclusiveLock for these subcommands because they
+                * affect or potentially affect both read and write
+                * operations.
+                *
+                * New subcommand types should be added here by default.
+                */
+           case AT_AddColumn:  /* may rewrite heap, in some cases and visible
+                                * to SELECT */
+           case AT_DropColumn: /* change visible to SELECT */
            case AT_AddColumnToView:    /* CREATE VIEW */
            case AT_AlterColumnType:    /* must rewrite heap */
            case AT_DropConstraint:     /* as DROP INDEX */
-           case AT_AddOids:            /* must rewrite heap */
-           case AT_DropOids:           /* calls AT_DropColumn */
+           case AT_AddOids:    /* must rewrite heap */
+           case AT_DropOids:   /* calls AT_DropColumn */
            case AT_EnableAlwaysRule:   /* may change SELECT rules */
            case AT_EnableReplicaRule:  /* may change SELECT rules */
-           case AT_EnableRule:         /* may change SELECT rules */
+           case AT_EnableRule: /* may change SELECT rules */
            case AT_DisableRule:        /* may change SELECT rules */
            case AT_ChangeOwner:        /* change visible to SELECT */
            case AT_SetTableSpace:      /* must rewrite heap */
@@ -2615,12 +2617,12 @@ AlterTableGetLockLevel(List *cmds)
                cmd_lockmode = AccessExclusiveLock;
                break;
 
-           /*
-            * These subcommands affect write operations only.
-            */
+               /*
+                * These subcommands affect write operations only.
+                */
            case AT_ColumnDefault:
-           case AT_ProcessedConstraint:    /* becomes AT_AddConstraint */
-           case AT_AddConstraintRecurse:   /* becomes AT_AddConstraint */
+           case AT_ProcessedConstraint:        /* becomes AT_AddConstraint */
+           case AT_AddConstraintRecurse:       /* becomes AT_AddConstraint */
            case AT_EnableTrig:
            case AT_EnableAlwaysTrig:
            case AT_EnableReplicaTrig:
@@ -2629,7 +2631,7 @@ AlterTableGetLockLevel(List *cmds)
            case AT_DisableTrig:
            case AT_DisableTrigAll:
            case AT_DisableTrigUser:
-           case AT_AddIndex:               /* from ADD CONSTRAINT */
+           case AT_AddIndex:   /* from ADD CONSTRAINT */
            case AT_AddIndexConstraint:
                cmd_lockmode = ShareRowExclusiveLock;
                break;
@@ -2644,14 +2646,17 @@ AlterTableGetLockLevel(List *cmds)
                        case CONSTR_EXCLUSION:
                        case CONSTR_PRIMARY:
                        case CONSTR_UNIQUE:
+
                            /*
                             * Cases essentially the same as CREATE INDEX. We
-                            * could reduce the lock strength to ShareLock if we
-                            * can work out how to allow concurrent catalog updates.
+                            * could reduce the lock strength to ShareLock if
+                            * we can work out how to allow concurrent catalog
+                            * updates.
                             */
                            cmd_lockmode = ShareRowExclusiveLock;
                            break;
                        case CONSTR_FOREIGN:
+
                            /*
                             * We add triggers to both tables when we add a
                             * Foreign Key, so the lock level must be at least
@@ -2666,26 +2671,29 @@ AlterTableGetLockLevel(List *cmds)
                }
                break;
 
-           /*
-            * These subcommands affect inheritance behaviour. Queries started before us
-            * will continue to see the old inheritance behaviour, while queries started
-            * after we commit will see new behaviour. No need to prevent reads or writes
-            * to the subtable while we hook it up though. In both cases the parent table
-            * is locked with AccessShareLock.
-            */
+               /*
+                * These subcommands affect inheritance behaviour. Queries
+                * started before us will continue to see the old inheritance
+                * behaviour, while queries started after we commit will see
+                * new behaviour. No need to prevent reads or writes to the
+                * subtable while we hook it up though. In both cases the
+                * parent table is locked with AccessShareLock.
+                */
            case AT_AddInherit:
            case AT_DropInherit:
                cmd_lockmode = ShareUpdateExclusiveLock;
                break;
 
-           /*
-            * These subcommands affect general strategies for performance and maintenance,
-            * though don't change the semantic results from normal data reads and writes.
-            * Delaying an ALTER TABLE behind currently active writes only delays the point
-            * where the new strategy begins to take effect, so there is no benefit in waiting.
-            * In this case the minimum restriction applies: we don't currently allow
-            * concurrent catalog updates.
-            */
+               /*
+                * These subcommands affect general strategies for performance
+                * and maintenance, though don't change the semantic results
+                * from normal data reads and writes. Delaying an ALTER TABLE
+                * behind currently active writes only delays the point where
+                * the new strategy begins to take effect, so there is no
+                * benefit in waiting. In this case the minimum restriction
+                * applies: we don't currently allow concurrent catalog
+                * updates.
+                */
            case AT_SetStatistics:
            case AT_ClusterOn:
            case AT_DropCluster:
@@ -2698,7 +2706,7 @@ AlterTableGetLockLevel(List *cmds)
                cmd_lockmode = ShareUpdateExclusiveLock;
                break;
 
-           default:                /* oops */
+           default:            /* oops */
                elog(ERROR, "unrecognized alter table type: %d",
                     (int) cmd->subtype);
                break;
@@ -2773,7 +2781,7 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
    {
        case AT_AddColumn:      /* ADD COLUMN */
            ATSimplePermissions(rel,
-               ATT_TABLE|ATT_COMPOSITE_TYPE|ATT_FOREIGN_TABLE);
+                        ATT_TABLE | ATT_COMPOSITE_TYPE | ATT_FOREIGN_TABLE);
            ATPrepAddColumn(wqueue, rel, recurse, recursing, cmd, lockmode);
            /* Recursion occurs during execution phase */
            pass = AT_PASS_ADD_COL;
@@ -2793,19 +2801,19 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
             * substitutes default values into INSERTs before it expands
             * rules.
             */
-           ATSimplePermissions(rel, ATT_TABLE|ATT_VIEW);
+           ATSimplePermissions(rel, ATT_TABLE | ATT_VIEW);
            ATSimpleRecursion(wqueue, rel, cmd, recurse, lockmode);
            /* No command-specific prep needed */
            pass = cmd->def ? AT_PASS_ADD_CONSTR : AT_PASS_DROP;
            break;
        case AT_DropNotNull:    /* ALTER COLUMN DROP NOT NULL */
-           ATSimplePermissions(rel, ATT_TABLE|ATT_FOREIGN_TABLE);
+           ATSimplePermissions(rel, ATT_TABLE | ATT_FOREIGN_TABLE);
            ATSimpleRecursion(wqueue, rel, cmd, recurse, lockmode);
            /* No command-specific prep needed */
            pass = AT_PASS_DROP;
            break;
        case AT_SetNotNull:     /* ALTER COLUMN SET NOT NULL */
-           ATSimplePermissions(rel, ATT_TABLE|ATT_FOREIGN_TABLE);
+           ATSimplePermissions(rel, ATT_TABLE | ATT_FOREIGN_TABLE);
            ATSimpleRecursion(wqueue, rel, cmd, recurse, lockmode);
            /* No command-specific prep needed */
            pass = AT_PASS_ADD_CONSTR;
@@ -2818,7 +2826,7 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
            break;
        case AT_SetOptions:     /* ALTER COLUMN SET ( options ) */
        case AT_ResetOptions:   /* ALTER COLUMN RESET ( options ) */
-           ATSimplePermissions(rel, ATT_TABLE|ATT_INDEX);
+           ATSimplePermissions(rel, ATT_TABLE | ATT_INDEX);
            /* This command never recurses */
            pass = AT_PASS_MISC;
            break;
@@ -2830,7 +2838,7 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
            break;
        case AT_DropColumn:     /* DROP COLUMN */
            ATSimplePermissions(rel,
-               ATT_TABLE|ATT_COMPOSITE_TYPE|ATT_FOREIGN_TABLE);
+                        ATT_TABLE | ATT_COMPOSITE_TYPE | ATT_FOREIGN_TABLE);
            ATPrepDropColumn(wqueue, rel, recurse, recursing, cmd, lockmode);
            /* Recursion occurs during execution phase */
            pass = AT_PASS_DROP;
@@ -2849,7 +2857,7 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
                cmd->subtype = AT_AddConstraintRecurse;
            pass = AT_PASS_ADD_CONSTR;
            break;
-       case AT_AddIndexConstraint: /* ADD CONSTRAINT USING INDEX */
+       case AT_AddIndexConstraint:     /* ADD CONSTRAINT USING INDEX */
            ATSimplePermissions(rel, ATT_TABLE);
            /* This command never recurses */
            /* No command-specific prep needed */
@@ -2865,7 +2873,7 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
            break;
        case AT_AlterColumnType:        /* ALTER COLUMN TYPE */
            ATSimplePermissions(rel,
-               ATT_TABLE|ATT_COMPOSITE_TYPE|ATT_FOREIGN_TABLE);
+                        ATT_TABLE | ATT_COMPOSITE_TYPE | ATT_FOREIGN_TABLE);
            /* Performs own recursion */
            ATPrepAlterColumnType(wqueue, tab, rel, recurse, recursing, cmd, lockmode);
            pass = AT_PASS_ALTER_TYPE;
@@ -2904,14 +2912,14 @@ ATPrepCmd(List **wqueue, Relation rel, AlterTableCmd *cmd,
            pass = AT_PASS_DROP;
            break;
        case AT_SetTableSpace:  /* SET TABLESPACE */
-           ATSimplePermissions(rel, ATT_TABLE|ATT_INDEX);
+           ATSimplePermissions(rel, ATT_TABLE | ATT_INDEX);
            /* This command never recurses */
            ATPrepSetTableSpace(tab, rel, cmd->name, lockmode);
            pass = AT_PASS_MISC;    /* doesn't actually matter */
            break;
        case AT_SetRelOptions:  /* SET (...) */
        case AT_ResetRelOptions:        /* RESET (...) */
-           ATSimplePermissions(rel, ATT_TABLE|ATT_INDEX);
+           ATSimplePermissions(rel, ATT_TABLE | ATT_INDEX);
            /* This command never recurses */
            /* No command-specific prep needed */
            pass = AT_PASS_MISC;
@@ -3072,11 +3080,11 @@ ATExecCmd(List **wqueue, AlteredTableInfo *tab, Relation rel,
            break;
        case AT_DropColumn:     /* DROP COLUMN */
            ATExecDropColumn(wqueue, rel, cmd->name,
-                            cmd->behavior, false, false, cmd->missing_ok, lockmode);
+                    cmd->behavior, false, false, cmd->missing_ok, lockmode);
            break;
        case AT_DropColumnRecurse:      /* DROP COLUMN with recursion */
            ATExecDropColumn(wqueue, rel, cmd->name,
-                            cmd->behavior, true, false, cmd->missing_ok, lockmode);
+                     cmd->behavior, true, false, cmd->missing_ok, lockmode);
            break;
        case AT_AddIndex:       /* ADD INDEX */
            ATExecAddIndex(tab, rel, (IndexStmt *) cmd->def, false, lockmode);
@@ -3092,7 +3100,7 @@ ATExecCmd(List **wqueue, AlteredTableInfo *tab, Relation rel,
            ATExecAddConstraint(wqueue, tab, rel, (Constraint *) cmd->def,
                                true, lockmode);
            break;
-       case AT_AddIndexConstraint: /* ADD CONSTRAINT USING INDEX */
+       case AT_AddIndexConstraint:     /* ADD CONSTRAINT USING INDEX */
            ATExecAddIndexConstraint(tab, rel, (IndexStmt *) cmd->def, lockmode);
            break;
        case AT_ValidateConstraint:
@@ -3156,7 +3164,7 @@ ATExecCmd(List **wqueue, AlteredTableInfo *tab, Relation rel,
 
        case AT_EnableTrig:     /* ENABLE TRIGGER name */
            ATExecEnableDisableTrigger(rel, cmd->name,
-                                      TRIGGER_FIRES_ON_ORIGIN, false, lockmode);
+                                  TRIGGER_FIRES_ON_ORIGIN, false, lockmode);
            break;
        case AT_EnableAlwaysTrig:       /* ENABLE ALWAYS TRIGGER name */
            ATExecEnableDisableTrigger(rel, cmd->name,
@@ -3164,7 +3172,7 @@ ATExecCmd(List **wqueue, AlteredTableInfo *tab, Relation rel,
            break;
        case AT_EnableReplicaTrig:      /* ENABLE REPLICA TRIGGER name */
            ATExecEnableDisableTrigger(rel, cmd->name,
-                                      TRIGGER_FIRES_ON_REPLICA, false, lockmode);
+                                 TRIGGER_FIRES_ON_REPLICA, false, lockmode);
            break;
        case AT_DisableTrig:    /* DISABLE TRIGGER name */
            ATExecEnableDisableTrigger(rel, cmd->name,
@@ -3172,7 +3180,7 @@ ATExecCmd(List **wqueue, AlteredTableInfo *tab, Relation rel,
            break;
        case AT_EnableTrigAll:  /* ENABLE TRIGGER ALL */
            ATExecEnableDisableTrigger(rel, NULL,
-                                      TRIGGER_FIRES_ON_ORIGIN, false, lockmode);
+                                  TRIGGER_FIRES_ON_ORIGIN, false, lockmode);
            break;
        case AT_DisableTrigAll: /* DISABLE TRIGGER ALL */
            ATExecEnableDisableTrigger(rel, NULL,
@@ -3180,7 +3188,7 @@ ATExecCmd(List **wqueue, AlteredTableInfo *tab, Relation rel,
            break;
        case AT_EnableTrigUser: /* ENABLE TRIGGER USER */
            ATExecEnableDisableTrigger(rel, NULL,
-                                      TRIGGER_FIRES_ON_ORIGIN, true, lockmode);
+                                   TRIGGER_FIRES_ON_ORIGIN, true, lockmode);
            break;
        case AT_DisableTrigUser:        /* DISABLE TRIGGER USER */
            ATExecEnableDisableTrigger(rel, NULL,
@@ -3254,8 +3262,8 @@ ATRewriteTables(List **wqueue, LOCKMODE lockmode)
         * (Eventually we'll probably need to check for composite type
         * dependencies even when we're just scanning the table without a
         * rewrite, but at the moment a composite type does not enforce any
-        * constraints, so it's not necessary/appropriate to enforce them
-        * just during ALTER.)
+        * constraints, so it's not necessary/appropriate to enforce them just
+        * during ALTER.)
         */
        if (tab->newvals != NIL || tab->rewrite)
        {
@@ -3386,8 +3394,8 @@ ATRewriteTables(List **wqueue, LOCKMODE lockmode)
                                             con->conid);
 
                /*
-                * No need to mark the constraint row as validated,
-                * we did that when we inserted the row earlier.
+                * No need to mark the constraint row as validated, we did
+                * that when we inserted the row earlier.
                 */
 
                heap_close(refrel, NoLock);
@@ -3723,7 +3731,7 @@ ATGetQueueEntry(List **wqueue, Relation rel)
 static void
 ATSimplePermissions(Relation rel, int allowed_targets)
 {
-   int     actual_target;
+   int         actual_target;
 
    switch (rel->rd_rel->relkind)
    {
@@ -3779,16 +3787,16 @@ ATWrongRelkindError(Relation rel, int allowed_targets)
        case ATT_TABLE:
            msg = _("\"%s\" is not a table");
            break;
-       case ATT_TABLE|ATT_INDEX:
+       case ATT_TABLE | ATT_INDEX:
            msg = _("\"%s\" is not a table or index");
            break;
-       case ATT_TABLE|ATT_VIEW:
+       case ATT_TABLE | ATT_VIEW:
            msg = _("\"%s\" is not a table or view");
            break;
-       case ATT_TABLE|ATT_FOREIGN_TABLE:
+       case ATT_TABLE | ATT_FOREIGN_TABLE:
            msg = _("\"%s\" is not a table or foreign table");
            break;
-       case ATT_TABLE|ATT_COMPOSITE_TYPE|ATT_FOREIGN_TABLE:
+       case ATT_TABLE | ATT_COMPOSITE_TYPE | ATT_FOREIGN_TABLE:
            msg = _("\"%s\" is not a table, composite type, or foreign table");
            break;
        case ATT_VIEW:
@@ -4032,7 +4040,7 @@ find_typed_table_dependencies(Oid typeOid, const char *typeName, DropBehavior be
                    (errcode(ERRCODE_DEPENDENT_OBJECTS_STILL_EXIST),
                     errmsg("cannot alter type \"%s\" because it is the type of a typed table",
                            typeName),
-                    errhint("Use ALTER ... CASCADE to alter the typed tables too.")));
+           errhint("Use ALTER ... CASCADE to alter the typed tables too.")));
        else
            result = lappend_oid(result, HeapTupleGetOid(tuple));
    }
@@ -4103,9 +4111,9 @@ ATExecAddColumn(List **wqueue, AlteredTableInfo *tab, Relation rel,
 
    /*
     * Are we adding the column to a recursion child?  If so, check whether to
-    * merge with an existing definition for the column.  If we do merge,
-    * we must not recurse.  Children will already have the column, and
-     * recursing into them would mess up attinhcount.
+    * merge with an existing definition for the column.  If we do merge, we
+    * must not recurse.  Children will already have the column, and recursing
+    * into them would mess up attinhcount.
     */
    if (colDef->inhcount > 0)
    {
@@ -4133,10 +4141,10 @@ ATExecAddColumn(List **wqueue, AlteredTableInfo *tab, Relation rel,
                ereport(ERROR,
                        (errcode(ERRCODE_COLLATION_MISMATCH),
                         errmsg("child table \"%s\" has different collation for column \"%s\"",
-                               RelationGetRelationName(rel), colDef->colname),
+                             RelationGetRelationName(rel), colDef->colname),
                         errdetail("\"%s\" versus \"%s\"",
                                   get_collation_name(ccollid),
-                                  get_collation_name(childatt->attcollation))));
+                              get_collation_name(childatt->attcollation))));
 
            /* If it's OID, child column must actually be OID */
            if (isOid && childatt->attnum != ObjectIdAttributeNumber)
@@ -4265,7 +4273,7 @@ ATExecAddColumn(List **wqueue, AlteredTableInfo *tab, Relation rel,
        if (relkind == RELKIND_FOREIGN_TABLE)
            ereport(ERROR,
                    (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-                    errmsg("default values on foreign tables are not supported")));
+             errmsg("default values on foreign tables are not supported")));
 
        rawEnt = (RawColumnDefault *) palloc(sizeof(RawColumnDefault));
        rawEnt->attnum = attribute.attnum;
@@ -5170,10 +5178,11 @@ ATExecAddIndexConstraint(AlteredTableInfo *tab, Relation rel,
        elog(ERROR, "index \"%s\" is not unique", indexName);
 
    /*
-    * Determine name to assign to constraint.  We require a constraint to
+    * Determine name to assign to constraint.  We require a constraint to
     * have the same name as the underlying index; therefore, use the index's
-    * existing name as the default constraint name, and if the user explicitly
-    * gives some other name for the constraint, rename the index to match.
+    * existing name as the default constraint name, and if the user
+    * explicitly gives some other name for the constraint, rename the index
+    * to match.
     */
    constraintName = stmt->idxname;
    if (constraintName == NULL)
@@ -5216,7 +5225,7 @@ ATExecAddIndexConstraint(AlteredTableInfo *tab, Relation rel,
  */
 static void
 ATExecAddConstraint(List **wqueue, AlteredTableInfo *tab, Relation rel,
-                   Constraint *newConstraint, bool recurse, LOCKMODE lockmode)
+                 Constraint *newConstraint, bool recurse, LOCKMODE lockmode)
 {
    Assert(IsA(newConstraint, Constraint));
 
@@ -5337,9 +5346,9 @@ ATAddCheckConstraint(List **wqueue, AlteredTableInfo *tab, Relation rel,
 
    /*
     * If the constraint got merged with an existing constraint, we're done.
-    * We mustn't recurse to child tables in this case, because they've already
-    * got the constraint, and visiting them again would lead to an incorrect
-    * value for coninhcount.
+    * We mustn't recurse to child tables in this case, because they've
+    * already got the constraint, and visiting them again would lead to an
+    * incorrect value for coninhcount.
     */
    if (newcons == NIL)
        return;
@@ -5655,8 +5664,8 @@ ATAddForeignKeyConstraint(AlteredTableInfo *tab, Relation rel,
 
    /*
     * Tell Phase 3 to check that the constraint is satisfied by existing rows
-    * We can skip this during table creation or if requested explicitly
-    * by specifying NOT VALID on an alter table statement.
+    * We can skip this during table creation or if requested explicitly by
+    * specifying NOT VALID on an alter table statement.
     */
    if (!fkconstraint->skip_validation)
    {
@@ -5718,8 +5727,8 @@ ATExecValidateConstraint(Relation rel, const char *constrName)
    if (!found)
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_OBJECT),
-           errmsg("foreign key constraint \"%s\" of relation \"%s\" does not exist",
-                  constrName, RelationGetRelationName(rel))));
+                errmsg("foreign key constraint \"%s\" of relation \"%s\" does not exist",
+                       constrName, RelationGetRelationName(rel))));
 
    if (!con->convalidated)
    {
@@ -5729,17 +5738,16 @@ ATExecValidateConstraint(Relation rel, const char *constrName)
        Relation    refrel;
 
        /*
-        * Triggers are already in place on both tables, so a
-        * concurrent write that alters the result here is not
-        * possible. Normally we can run a query here to do the
-        * validation, which would only require AccessShareLock.
-        * In some cases, it is possible that we might need to
-        * fire triggers to perform the check, so we take a lock
-        * at RowShareLock level just in case.
+        * Triggers are already in place on both tables, so a concurrent write
+        * that alters the result here is not possible. Normally we can run a
+        * query here to do the validation, which would only require
+        * AccessShareLock. In some cases, it is possible that we might need
+        * to fire triggers to perform the check, so we take a lock at
+        * RowShareLock level just in case.
         */
        refrel = heap_open(con->confrelid, RowShareLock);
 
-       validateForeignKeyConstraint((char *)constrName, rel, refrel,
+       validateForeignKeyConstraint((char *) constrName, rel, refrel,
                                     con->conindid,
                                     conid);
 
@@ -6571,12 +6579,12 @@ ATPrepAlterColumnType(List **wqueue,
    if (tab->relkind == RELKIND_RELATION)
    {
        /*
-        * Set up an expression to transform the old data value to the new type.
-        * If a USING option was given, transform and use that expression, else
-        * just take the old value and try to coerce it.  We do this first so that
-        * type incompatibility can be detected before we waste effort, and
-        * because we need the expression to be parsed against the original table
-        * rowtype.
+        * Set up an expression to transform the old data value to the new
+        * type. If a USING option was given, transform and use that
+        * expression, else just take the old value and try to coerce it.  We
+        * do this first so that type incompatibility can be detected before
+        * we waste effort, and because we need the expression to be parsed
+        * against the original table rowtype.
         */
        if (transform)
        {
@@ -6596,13 +6604,13 @@ ATPrepAlterColumnType(List **wqueue,
            if (expression_returns_set(transform))
                ereport(ERROR,
                        (errcode(ERRCODE_DATATYPE_MISMATCH),
-                        errmsg("transform expression must not return a set")));
+                     errmsg("transform expression must not return a set")));
 
            /* No subplans or aggregates, either... */
            if (pstate->p_hasSubLinks)
                ereport(ERROR,
                        (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                        errmsg("cannot use subquery in transform expression")));
+                    errmsg("cannot use subquery in transform expression")));
            if (pstate->p_hasAggs)
                ereport(ERROR,
                        (errcode(ERRCODE_GROUPING_ERROR),
@@ -6615,7 +6623,7 @@ ATPrepAlterColumnType(List **wqueue,
        else
        {
            transform = (Node *) makeVar(1, attnum,
-                                        attTup->atttypid, attTup->atttypmod, attTup->attcollation,
+                  attTup->atttypid, attTup->atttypmod, attTup->attcollation,
                                         0);
        }
 
@@ -6649,14 +6657,14 @@ ATPrepAlterColumnType(List **wqueue,
    else if (transform)
        ereport(ERROR,
                (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-                errmsg("ALTER TYPE USING is only supported on plain tables")));
+             errmsg("ALTER TYPE USING is only supported on plain tables")));
 
    if (tab->relkind == RELKIND_COMPOSITE_TYPE ||
        tab->relkind == RELKIND_FOREIGN_TABLE)
    {
        /*
-        * For composite types, do this check now.  Tables will check
-        * it later when the table is being rewritten.
+        * For composite types, do this check now.  Tables will check it later
+        * when the table is being rewritten.
         */
        find_composite_type_dependencies(rel->rd_rel->reltype, rel, NULL);
    }
@@ -6699,7 +6707,7 @@ ATColumnChangeRequiresRewrite(Node *expr, AttrNumber varattno)
    for (;;)
    {
        /* only one varno, so no need to check that */
-       if (IsA(expr, Var) && ((Var *) expr)->varattno == varattno)
+       if (IsA(expr, Var) &&((Var *) expr)->varattno == varattno)
            return false;
        else if (IsA(expr, RelabelType))
            expr = (Node *) ((RelabelType *) expr)->arg;
@@ -6924,13 +6932,14 @@ ATExecAlterColumnType(AlteredTableInfo *tab, Relation rel,
                break;
 
            case OCLASS_TRIGGER:
+
                /*
                 * A trigger can depend on a column because the column is
                 * specified as an update target, or because the column is
                 * used in the trigger's WHEN condition.  The first case would
                 * not require any extra work, but the second case would
                 * require updating the WHEN expression, which will take a
-                * significant amount of new code.  Since we can't easily tell
+                * significant amount of new code.  Since we can't easily tell
                 * which case applies, we punt for both.  FIXME someday.
                 */
                ereport(ERROR,
@@ -7940,7 +7949,7 @@ copy_relation_data(SMgrRelation src, SMgrRelation dst,
  */
 static void
 ATExecEnableDisableTrigger(Relation rel, char *trigname,
-                          char fires_when, bool skip_system, LOCKMODE lockmode)
+                       char fires_when, bool skip_system, LOCKMODE lockmode)
 {
    EnableDisableTrigger(rel, trigname, fires_when, skip_system);
 }
@@ -8558,18 +8567,18 @@ ATExecDropInherit(Relation rel, RangeVar *parent, LOCKMODE lockmode)
 static void
 ATExecGenericOptions(Relation rel, List *options)
 {
-   Relation        ftrel;
-   ForeignServer  *server;
+   Relation    ftrel;
+   ForeignServer *server;
    ForeignDataWrapper *fdw;
-   HeapTuple       tuple;
-   bool            isnull;
-   Datum           repl_val[Natts_pg_foreign_table];
-   bool            repl_null[Natts_pg_foreign_table];
-   bool            repl_repl[Natts_pg_foreign_table];
-   Datum           datum;
-   Form_pg_foreign_table   tableform;
-
-   if (options == NIL) 
+   HeapTuple   tuple;
+   bool        isnull;
+   Datum       repl_val[Natts_pg_foreign_table];
+   bool        repl_null[Natts_pg_foreign_table];
+   bool        repl_repl[Natts_pg_foreign_table];
+   Datum       datum;
+   Form_pg_foreign_table tableform;
+
+   if (options == NIL)
        return;
 
    ftrel = heap_open(ForeignTableRelationId, RowExclusiveLock);
@@ -8579,7 +8588,7 @@ ATExecGenericOptions(Relation rel, List *options)
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_OBJECT),
                 errmsg("foreign table \"%s\" does not exist",
-                                       RelationGetRelationName(rel))));
+                       RelationGetRelationName(rel))));
    tableform = (Form_pg_foreign_table) GETSTRUCT(tuple);
    server = GetForeignServer(tableform->ftserver);
    fdw = GetForeignDataWrapper(server->fdwid);
@@ -8718,8 +8727,8 @@ AlterTableNamespace(RangeVar *relation, const char *newschema,
        default:
            ereport(ERROR,
                    (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-                    errmsg("\"%s\" is not a table, view, sequence, or foreign table",
-                           RelationGetRelationName(rel))));
+           errmsg("\"%s\" is not a table, view, sequence, or foreign table",
+                  RelationGetRelationName(rel))));
    }
 
    /* get schema OID and check its permissions */
@@ -8836,7 +8845,7 @@ AlterIndexNamespaces(Relation classRel, Relation rel,
  */
 static void
 AlterSeqNamespaces(Relation classRel, Relation rel,
-                  Oid oldNspOid, Oid newNspOid, const char *newNspName, LOCKMODE lockmode)
+    Oid oldNspOid, Oid newNspOid, const char *newNspName, LOCKMODE lockmode)
 {
    Relation    depRel;
    SysScanDesc scan;
index 42a704beb164f39316862f4bdcdcc6c6b6edd1ba..3024dc4b6468ebf0c4b3eac1152f10550ab5bda7 100644 (file)
@@ -559,7 +559,7 @@ create_tablespace_directories(const char *location, const Oid tablespaceoid)
                    (errcode(ERRCODE_UNDEFINED_FILE),
                     errmsg("directory \"%s\" does not exist", location),
                     InRecovery ? errhint("Create this directory for the tablespace before "
-                                  "restarting the server."): 0));
+                                         "restarting the server.") : 0));
        else
            ereport(ERROR,
                    (errcode_for_file_access(),
@@ -573,8 +573,8 @@ create_tablespace_directories(const char *location, const Oid tablespaceoid)
 
        /*
         * Our theory for replaying a CREATE is to forcibly drop the target
-        * subdirectory if present, and then recreate it. This may be
-        * more work than needed, but it is simple to implement.
+        * subdirectory if present, and then recreate it. This may be more
+        * work than needed, but it is simple to implement.
         */
        if (stat(location_with_version_dir, &st) == 0 && S_ISDIR(st.st_mode))
        {
@@ -1353,10 +1353,10 @@ get_tablespace_oid(const char *tablespacename, bool missing_ok)
    heap_close(rel, AccessShareLock);
 
    if (!OidIsValid(result) && !missing_ok)
-        ereport(ERROR,
-                (errcode(ERRCODE_UNDEFINED_OBJECT),
-                 errmsg("tablespace \"%s\" does not exist",
-                        tablespacename)));
+       ereport(ERROR,
+               (errcode(ERRCODE_UNDEFINED_OBJECT),
+                errmsg("tablespace \"%s\" does not exist",
+                       tablespacename)));
 
    return result;
 }
index 329d4d95f151e292e509cd0cd5e152ca041097d5..6b1ade899032f001f02de50194b74e49e8e3b3ef 100644 (file)
@@ -144,11 +144,11 @@ CreateTrigger(CreateTrigStmt *stmt, const char *queryString,
                referenced;
 
    /*
-    * ShareRowExclusiveLock is sufficient to prevent concurrent write activity
-    * to the relation, and thus to lock out any operations that might want to
-    * fire triggers on the relation.  If we had ON SELECT triggers we would
-    * need to take an AccessExclusiveLock to add one of those, just as we do
-    * with ON SELECT rules.
+    * ShareRowExclusiveLock is sufficient to prevent concurrent write
+    * activity to the relation, and thus to lock out any operations that
+    * might want to fire triggers on the relation.  If we had ON SELECT
+    * triggers we would need to take an AccessExclusiveLock to add one of
+    * those, just as we do with ON SELECT rules.
     */
    rel = heap_openrv(stmt->relation, ShareRowExclusiveLock);
 
@@ -244,7 +244,7 @@ CreateTrigger(CreateTrigStmt *stmt, const char *queryString,
        if (stmt->whenClause)
            ereport(ERROR,
                    (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                    errmsg("INSTEAD OF triggers cannot have WHEN conditions")));
+                errmsg("INSTEAD OF triggers cannot have WHEN conditions")));
        if (stmt->columns != NIL)
            ereport(ERROR,
                    (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
@@ -480,8 +480,8 @@ CreateTrigger(CreateTrigStmt *stmt, const char *queryString,
     * can skip this for internally generated triggers, since the name
     * modification above should be sufficient.
     *
-    * NOTE that this is cool only because we have ShareRowExclusiveLock on the
-    * relation, so the trigger set won't be changing underneath us.
+    * NOTE that this is cool only because we have ShareRowExclusiveLock on
+    * the relation, so the trigger set won't be changing underneath us.
     */
    if (!isInternal)
    {
@@ -1036,8 +1036,8 @@ DropTrigger(Oid relid, const char *trigname, DropBehavior behavior,
    if (!OidIsValid(object.objectId))
    {
        ereport(NOTICE,
-               (errmsg("trigger \"%s\" for table \"%s\" does not exist, skipping",
-                       trigname, get_rel_name(relid))));
+         (errmsg("trigger \"%s\" for table \"%s\" does not exist, skipping",
+                 trigname, get_rel_name(relid))));
        return;
    }
 
@@ -1083,9 +1083,9 @@ RemoveTriggerById(Oid trigOid)
 
    /*
     * Open and lock the relation the trigger belongs to.  As in
-    * CreateTrigger, this is sufficient to lock out all operations that
-    * could fire or add triggers; but it would need to be revisited if
-    * we had ON SELECT triggers.
+    * CreateTrigger, this is sufficient to lock out all operations that could
+    * fire or add triggers; but it would need to be revisited if we had ON
+    * SELECT triggers.
     */
    relid = ((Form_pg_trigger) GETSTRUCT(tup))->tgrelid;
 
@@ -1960,7 +1960,7 @@ ExecBRInsertTriggers(EState *estate, ResultRelInfo *relinfo,
    if (newtuple != slottuple)
    {
        /*
-        * Return the modified tuple using the es_trig_tuple_slot.  We assume
+        * Return the modified tuple using the es_trig_tuple_slot.  We assume
         * the tuple was allocated in per-tuple memory context, and therefore
         * will go away by itself. The tuple table slot should not try to
         * clear it.
@@ -2035,7 +2035,7 @@ ExecIRInsertTriggers(EState *estate, ResultRelInfo *relinfo,
    if (newtuple != slottuple)
    {
        /*
-        * Return the modified tuple using the es_trig_tuple_slot.  We assume
+        * Return the modified tuple using the es_trig_tuple_slot.  We assume
         * the tuple was allocated in per-tuple memory context, and therefore
         * will go away by itself. The tuple table slot should not try to
         * clear it.
@@ -2378,7 +2378,7 @@ ExecBRUpdateTriggers(EState *estate, EPQState *epqstate,
    if (newtuple != slottuple)
    {
        /*
-        * Return the modified tuple using the es_trig_tuple_slot.  We assume
+        * Return the modified tuple using the es_trig_tuple_slot.  We assume
         * the tuple was allocated in per-tuple memory context, and therefore
         * will go away by itself. The tuple table slot should not try to
         * clear it.
@@ -2461,7 +2461,7 @@ ExecIRUpdateTriggers(EState *estate, ResultRelInfo *relinfo,
    if (newtuple != slottuple)
    {
        /*
-        * Return the modified tuple using the es_trig_tuple_slot.  We assume
+        * Return the modified tuple using the es_trig_tuple_slot.  We assume
         * the tuple was allocated in per-tuple memory context, and therefore
         * will go away by itself. The tuple table slot should not try to
         * clear it.
@@ -2891,7 +2891,7 @@ typedef struct AfterTriggerEventDataOneCtid
 {
    TriggerFlags ate_flags;     /* status bits and offset to shared data */
    ItemPointerData ate_ctid1;  /* inserted, deleted, or old updated tuple */
-} AfterTriggerEventDataOneCtid;
+}  AfterTriggerEventDataOneCtid;
 
 #define SizeofTriggerEvent(evt) \
    (((evt)->ate_flags & AFTER_TRIGGER_2CTIDS) ? \
index 81f129dff6bc4f11a290657d6179e13f11fafffc..80a30e180dc7f62220d204c2189958108211c5a9 100644 (file)
@@ -407,7 +407,8 @@ RenameTSParser(List *oldname, const char *newname)
 void
 AlterTSParserNamespace(List *name, const char *newschema)
 {
-   Oid         prsId, nspOid;
+   Oid         prsId,
+               nspOid;
    Relation    rel;
 
    rel = heap_open(TSParserRelationId, RowExclusiveLock);
@@ -429,7 +430,7 @@ AlterTSParserNamespace(List *name, const char *newschema)
 Oid
 AlterTSParserNamespace_oid(Oid prsId, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(TSParserRelationId, RowExclusiveLock);
@@ -685,7 +686,8 @@ RenameTSDictionary(List *oldname, const char *newname)
 void
 AlterTSDictionaryNamespace(List *name, const char *newschema)
 {
-   Oid         dictId, nspOid;
+   Oid         dictId,
+               nspOid;
    Relation    rel;
 
    rel = heap_open(TSDictionaryRelationId, RowExclusiveLock);
@@ -708,7 +710,7 @@ AlterTSDictionaryNamespace(List *name, const char *newschema)
 Oid
 AlterTSDictionaryNamespace_oid(Oid dictId, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(TSDictionaryRelationId, RowExclusiveLock);
@@ -1218,7 +1220,8 @@ RenameTSTemplate(List *oldname, const char *newname)
 void
 AlterTSTemplateNamespace(List *name, const char *newschema)
 {
-   Oid         tmplId, nspOid;
+   Oid         tmplId,
+               nspOid;
    Relation    rel;
 
    rel = heap_open(TSTemplateRelationId, RowExclusiveLock);
@@ -1240,7 +1243,7 @@ AlterTSTemplateNamespace(List *name, const char *newschema)
 Oid
 AlterTSTemplateNamespace_oid(Oid tmplId, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(TSTemplateRelationId, RowExclusiveLock);
@@ -1668,7 +1671,8 @@ RenameTSConfiguration(List *oldname, const char *newname)
 void
 AlterTSConfigurationNamespace(List *name, const char *newschema)
 {
-   Oid         cfgId, nspOid;
+   Oid         cfgId,
+               nspOid;
    Relation    rel;
 
    rel = heap_open(TSConfigRelationId, RowExclusiveLock);
@@ -1691,7 +1695,7 @@ AlterTSConfigurationNamespace(List *name, const char *newschema)
 Oid
 AlterTSConfigurationNamespace_oid(Oid cfgId, Oid newNspOid)
 {
-   Oid         oldNspOid;
+   Oid         oldNspOid;
    Relation    rel;
 
    rel = heap_open(TSConfigRelationId, RowExclusiveLock);
index 4c06d898a88cce473d24bd5d1db92b07d8ee6d89..1a20b0d91be78ccfa3dc535eb817a8073a837666 100644 (file)
@@ -138,7 +138,7 @@ DefineType(List *names, List *parameters)
    DefElem    *byValueEl = NULL;
    DefElem    *alignmentEl = NULL;
    DefElem    *storageEl = NULL;
-   DefElem    *collatableEl = NULL;
+   DefElem    *collatableEl = NULL;
    Oid         inputOid;
    Oid         outputOid;
    Oid         receiveOid = InvalidOid;
@@ -537,7 +537,7 @@ DefineType(List *names, List *parameters)
     * now have TypeCreate do all the real work.
     *
     * Note: the pg_type.oid is stored in user tables as array elements (base
-    * types) in ArrayType and in composite types in DatumTupleFields.  This
+    * types) in ArrayType and in composite types in DatumTupleFields.  This
     * oid must be preserved by binary upgrades.
     */
    typoid =
@@ -1179,7 +1179,7 @@ DefineEnum(CreateEnumStmt *stmt)
                   -1,          /* typMod (Domains only) */
                   0,           /* Array dimensions of typbasetype */
                   false,       /* Type NOT NULL */
-                  InvalidOid); /* typcollation */
+                  InvalidOid); /* typcollation */
 
    /* Enter the enum's values into pg_enum */
    EnumValuesCreate(enumTypeOid, stmt->vals);
@@ -2416,7 +2416,7 @@ domainAddConstraint(Oid domainOid, Oid domainNamespace, Oid baseTypeOid,
                          CONSTRAINT_CHECK,     /* Constraint Type */
                          false,    /* Is Deferrable */
                          false,    /* Is Deferred */
-                         true,     /* Is Validated */
+                         true, /* Is Validated */
                          InvalidOid,   /* not a relation constraint */
                          NULL,
                          0,
index f13eb2891e2b5921f4b0dc35cef5efd60451eedb..9c9164d3bc722d71484e2d012a7bf65e95fed77b 100644 (file)
@@ -84,7 +84,7 @@ CreateRole(CreateRoleStmt *stmt)
    bool        createrole = false;     /* Can this user create roles? */
    bool        createdb = false;       /* Can the user create databases? */
    bool        canlogin = false;       /* Can this user login? */
-   bool        isreplication = false; /* Is this a replication role? */
+   bool        isreplication = false;  /* Is this a replication role? */
    int         connlimit = -1; /* maximum connections allowed */
    List       *addroleto = NIL;    /* roles to make this a member of */
    List       *rolemembers = NIL;      /* roles to be members of this role */
@@ -98,7 +98,7 @@ CreateRole(CreateRoleStmt *stmt)
    DefElem    *dcreaterole = NULL;
    DefElem    *dcreatedb = NULL;
    DefElem    *dcanlogin = NULL;
-   DefElem    *disreplication = NULL;
+   DefElem    *disreplication = NULL;
    DefElem    *dconnlimit = NULL;
    DefElem    *daddroleto = NULL;
    DefElem    *drolemembers = NULL;
@@ -240,9 +240,10 @@ CreateRole(CreateRoleStmt *stmt)
    if (dissuper)
    {
        issuper = intVal(dissuper->arg) != 0;
+
        /*
-        * Superusers get replication by default, but only if
-        * NOREPLICATION wasn't explicitly mentioned
+        * Superusers get replication by default, but only if NOREPLICATION
+        * wasn't explicitly mentioned
         */
        if (!(disreplication && intVal(disreplication->arg) == 0))
            isreplication = 1;
@@ -287,7 +288,7 @@ CreateRole(CreateRoleStmt *stmt)
        if (!superuser())
            ereport(ERROR,
                    (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-                    errmsg("must be superuser to create replication users")));
+                  errmsg("must be superuser to create replication users")));
    }
    else
    {
@@ -384,8 +385,8 @@ CreateRole(CreateRoleStmt *stmt)
    tuple = heap_form_tuple(pg_authid_dsc, new_record, new_record_nulls);
 
    /*
-    * pg_largeobject_metadata contains pg_authid.oid's, so we
-    * use the binary-upgrade override, if specified.
+    * pg_largeobject_metadata contains pg_authid.oid's, so we use the
+    * binary-upgrade override, if specified.
     */
    if (OidIsValid(binary_upgrade_next_pg_authid_oid))
    {
@@ -467,7 +468,7 @@ AlterRole(AlterRoleStmt *stmt)
    int         createrole = -1;    /* Can this user create roles? */
    int         createdb = -1;  /* Can the user create databases? */
    int         canlogin = -1;  /* Can this user login? */
-   int         isreplication = -1; /* Is this a replication role? */
+   int         isreplication = -1;     /* Is this a replication role? */
    int         connlimit = -1; /* maximum connections allowed */
    List       *rolemembers = NIL;      /* roles to be added/removed */
    char       *validUntil = NULL;      /* time the login is valid until */
@@ -479,7 +480,7 @@ AlterRole(AlterRoleStmt *stmt)
    DefElem    *dcreaterole = NULL;
    DefElem    *dcreatedb = NULL;
    DefElem    *dcanlogin = NULL;
-   DefElem    *disreplication = NULL;
+   DefElem    *disreplication = NULL;
    DefElem    *dconnlimit = NULL;
    DefElem    *drolemembers = NULL;
    DefElem    *dvalidUntil = NULL;
index 1651aa94dc22f4e2ff9991381f64da871252fa9d..90c413a9880f671981c8e45196029189a826f408 100644 (file)
@@ -527,7 +527,7 @@ vac_update_relstats(Relation relation,
 
    /*
     * If we have discovered that there are no indexes, then there's no
-    * primary key either.  This could be done more thoroughly...
+    * primary key either.  This could be done more thoroughly...
     */
    if (pgcform->relhaspkey && !hasindex)
    {
@@ -839,8 +839,8 @@ vacuum_rel(Oid relid, VacuumStmt *vacstmt, bool do_toast, bool for_wraparound,
     * There's a race condition here: the rel may have gone away since the
     * last time we saw it.  If so, we don't need to vacuum it.
     *
-    * If we've been asked not to wait for the relation lock, acquire it
-    * first in non-blocking mode, before calling try_relation_open().
+    * If we've been asked not to wait for the relation lock, acquire it first
+    * in non-blocking mode, before calling try_relation_open().
     */
    if (!(vacstmt->options & VACOPT_NOWAIT))
        onerel = try_relation_open(relid, lmode);
@@ -852,8 +852,8 @@ vacuum_rel(Oid relid, VacuumStmt *vacstmt, bool do_toast, bool for_wraparound,
        if (IsAutoVacuumWorkerProcess() && Log_autovacuum_min_duration >= 0)
            ereport(LOG,
                    (errcode(ERRCODE_LOCK_NOT_AVAILABLE),
-                    errmsg("skipping vacuum of \"%s\" --- lock not available",
-                       vacstmt->relation->relname)));
+                  errmsg("skipping vacuum of \"%s\" --- lock not available",
+                         vacstmt->relation->relname)));
    }
 
    if (!onerel)
index a5c024cc19b2ac1f8e964269b9325d58e18660db..9393fa0727aaad7508e1163623322b4066412257 100644 (file)
@@ -705,15 +705,16 @@ lazy_scan_heap(Relation onerel, LVRelStats *vacrelstats,
            PageSetAllVisible(page);
            SetBufferCommitInfoNeedsSave(buf);
        }
+
        /*
         * It's possible for the value returned by GetOldestXmin() to move
         * backwards, so it's not wrong for us to see tuples that appear to
         * not be visible to everyone yet, while PD_ALL_VISIBLE is already
         * set. The real safe xmin value never moves backwards, but
         * GetOldestXmin() is conservative and sometimes returns a value
-        * that's unnecessarily small, so if we see that contradiction it
-        * just means that the tuples that we think are not visible to
-        * everyone yet actually are, and the PD_ALL_VISIBLE flag is correct.
+        * that's unnecessarily small, so if we see that contradiction it just
+        * means that the tuples that we think are not visible to everyone yet
+        * actually are, and the PD_ALL_VISIBLE flag is correct.
         *
         * There should never be dead tuples on a page with PD_ALL_VISIBLE
         * set, however.
index 2cec713089668825d49e6cf9e95c2dbc5ee6ea42..5d0fbdfb40fa79a01304ef72a632c2c47f0bab7d 100644 (file)
@@ -132,8 +132,8 @@ check_datestyle(char **newval, void **extra, GucSource source)
             * We can't simply "return check_datestyle(...)" because we need
             * to handle constructs like "DEFAULT, ISO".
             */
-           char   *subval;
-           void   *subextra = NULL;
+           char       *subval;
+           void       *subextra = NULL;
 
            subval = strdup(GetConfigOptionResetString("datestyle"));
            if (!subval)
@@ -262,9 +262,9 @@ check_timezone(char **newval, void **extra, GucSource source)
    {
        /*
         * The boot_val given for TimeZone in guc.c is NULL.  When we see this
-        * we just do nothing.  If this isn't overridden from the config file
+        * we just do nothing.  If this isn't overridden from the config file
         * then pg_timezone_initialize() will eventually select a default
-        * value from the environment.  This hack has two purposes: to avoid
+        * value from the environment.  This hack has two purposes: to avoid
         * wasting cycles loading values that might soon be overridden from
         * the config file, and to avoid trying to read the timezone files
         * during InitializeGUCOptions().  The latter doesn't work in an
@@ -289,7 +289,7 @@ check_timezone(char **newval, void **extra, GucSource source)
    if (pg_strncasecmp(*newval, "interval", 8) == 0)
    {
        /*
-        * Support INTERVAL 'foo'.  This is for SQL spec compliance, not
+        * Support INTERVAL 'foo'.  This is for SQL spec compliance, not
         * because it has any actual real-world usefulness.
         */
        const char *valueptr = *newval;
@@ -391,13 +391,13 @@ check_timezone(char **newval, void **extra, GucSource source)
     *
     * Note: the result string should be something that we'd accept as input.
     * We use the numeric format for interval cases, because it's simpler to
-    * reload.  In the named-timezone case, *newval is already OK and need not
+    * reload.  In the named-timezone case, *newval is already OK and need not
     * be changed; it might not have the canonical casing, but that's taken
     * care of by show_timezone.
     */
    if (myextra.HasCTZSet)
    {
-       char    *result = (char *) malloc(64);
+       char       *result = (char *) malloc(64);
 
        if (!result)
            return false;
@@ -567,7 +567,7 @@ show_log_timezone(void)
  * We allow idempotent changes (r/w -> r/w and r/o -> r/o) at any time, and
  * we also always allow changes from read-write to read-only.  However,
  * read-only may be changed to read-write only when in a top-level transaction
- * that has not yet taken an initial snapshot.  Can't do it in a hot standby
+ * that has not yet taken an initial snapshot. Can't do it in a hot standby
  * slave, either.
  */
 bool
@@ -719,7 +719,7 @@ check_transaction_deferrable(bool *newval, void **extra, GucSource source)
  *
  * We can't roll back the random sequence on error, and we don't want
  * config file reloads to affect it, so we only want interactive SET SEED
- * commands to set it.  We use the "extra" storage to ensure that rollbacks
+ * commands to set it. We use the "extra" storage to ensure that rollbacks
  * don't try to do the operation again.
  */
 
@@ -851,8 +851,8 @@ check_session_authorization(char **newval, void **extra, GucSource source)
    {
        /*
         * Can't do catalog lookups, so fail.  The result of this is that
-        * session_authorization cannot be set in postgresql.conf, which
-        * seems like a good thing anyway, so we don't work hard to avoid it.
+        * session_authorization cannot be set in postgresql.conf, which seems
+        * like a good thing anyway, so we don't work hard to avoid it.
         */
        return false;
    }
@@ -977,7 +977,7 @@ const char *
 show_role(void)
 {
    /*
-    * Check whether SET ROLE is active; if not return "none".  This is a
+    * Check whether SET ROLE is active; if not return "none".  This is a
     * kluge to deal with the fact that SET SESSION AUTHORIZATION logically
     * resets SET ROLE to NONE, but we cannot set the GUC role variable from
     * assign_session_authorization (because we haven't got enough info to
index 508fb23c9ac14a40daa58d39cabc9eeef10a858c..be681e3fd4f9fa24c3b8fe4fc22dd13549e02f03 100644 (file)
@@ -120,7 +120,7 @@ DefineVirtualRelation(const RangeVar *relation, List *tlist, bool replace)
 
            def->colname = pstrdup(tle->resname);
            def->typeName = makeTypeNameFromOid(exprType((Node *) tle->expr),
-                                               exprTypmod((Node *) tle->expr));
+                                            exprTypmod((Node *) tle->expr));
            def->inhcount = 0;
            def->is_local = true;
            def->is_not_null = false;
@@ -130,6 +130,7 @@ DefineVirtualRelation(const RangeVar *relation, List *tlist, bool replace)
            def->cooked_default = NULL;
            def->collClause = NULL;
            def->collOid = exprCollation((Node *) tle->expr);
+
            /*
             * It's possible that the column is of a collatable type but the
             * collation could not be resolved, so double-check.
@@ -240,7 +241,7 @@ DefineVirtualRelation(const RangeVar *relation, List *tlist, bool replace)
    }
    else
    {
-       Oid     relid;
+       Oid         relid;
 
        /*
         * now set the parameters for keys/inheritance etc. All of these are
@@ -437,8 +438,8 @@ DefineView(ViewStmt *stmt, const char *queryString)
 
    /*
     * Check for unsupported cases.  These tests are redundant with ones in
-    * DefineQueryRewrite(), but that function will complain about a bogus
-    * ON SELECT rule, and we'd rather the message complain about a view.
+    * DefineQueryRewrite(), but that function will complain about a bogus ON
+    * SELECT rule, and we'd rather the message complain about a view.
     */
    if (viewParse->intoClause != NULL)
        ereport(ERROR,
@@ -447,7 +448,7 @@ DefineView(ViewStmt *stmt, const char *queryString)
    if (viewParse->hasModifyingCTE)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("views must not contain data-modifying statements in WITH")));
+       errmsg("views must not contain data-modifying statements in WITH")));
 
    /*
     * If a list of column names was given, run through and insert these into
@@ -500,7 +501,7 @@ DefineView(ViewStmt *stmt, const char *queryString)
    if (view->relpersistence == RELPERSISTENCE_UNLOGGED)
        ereport(ERROR,
                (errcode(ERRCODE_SYNTAX_ERROR),
-                errmsg("views cannot be unlogged because they do not have storage")));
+       errmsg("views cannot be unlogged because they do not have storage")));
 
    /*
     * Create the view relation
index caa9faea87f4f9bca5c71d8588ae54548300491a..86ec9870198af543e8d45b90e92357c908d2f22c 100644 (file)
@@ -19,7 +19,7 @@
  * ExecutorRun accepts direction and count arguments that specify whether
  * the plan is to be executed forwards, backwards, and for how many tuples.
  * In some cases ExecutorRun may be called multiple times to process all
- * the tuples for a plan.  It is also acceptable to stop short of executing
+ * the tuples for a plan.  It is also acceptable to stop short of executing
  * the whole plan (but only if it is a SELECT).
  *
  * ExecutorFinish must be called after the final ExecutorRun call and
@@ -168,6 +168,7 @@ standard_ExecutorStart(QueryDesc *queryDesc, int eflags)
    switch (queryDesc->operation)
    {
        case CMD_SELECT:
+
            /*
             * SELECT INTO, SELECT FOR UPDATE/SHARE and modifying CTEs need to
             * mark tuples
@@ -332,12 +333,12 @@ standard_ExecutorRun(QueryDesc *queryDesc,
  *     ExecutorFinish
  *
  *     This routine must be called after the last ExecutorRun call.
- *     It performs cleanup such as firing AFTER triggers.  It is
+ *     It performs cleanup such as firing AFTER triggers.  It is
  *     separate from ExecutorEnd because EXPLAIN ANALYZE needs to
  *     include these actions in the total runtime.
  *
  *     We provide a function hook variable that lets loadable plugins
- *     get control when ExecutorFinish is called.  Such a plugin would
+ *     get control when ExecutorFinish is called.  Such a plugin would
  *     normally call standard_ExecutorFinish().
  *
  * ----------------------------------------------------------------
@@ -425,9 +426,9 @@ standard_ExecutorEnd(QueryDesc *queryDesc)
    Assert(estate != NULL);
 
    /*
-    * Check that ExecutorFinish was called, unless in EXPLAIN-only mode.
-    * This Assert is needed because ExecutorFinish is new as of 9.1, and
-    * callers might forget to call it.
+    * Check that ExecutorFinish was called, unless in EXPLAIN-only mode. This
+    * Assert is needed because ExecutorFinish is new as of 9.1, and callers
+    * might forget to call it.
     */
    Assert(estate->es_finished ||
           (estate->es_top_eflags & EXEC_FLAG_EXPLAIN_ONLY));
@@ -519,7 +520,7 @@ ExecCheckRTPerms(List *rangeTable, bool ereport_on_violation)
 
    foreach(l, rangeTable)
    {
-       RangeTblEntry  *rte = (RangeTblEntry *) lfirst(l);
+       RangeTblEntry *rte = (RangeTblEntry *) lfirst(l);
 
        result = ExecCheckRTEPerms(rte);
        if (!result)
@@ -533,8 +534,8 @@ ExecCheckRTPerms(List *rangeTable, bool ereport_on_violation)
    }
 
    if (ExecutorCheckPerms_hook)
-       result = (*ExecutorCheckPerms_hook)(rangeTable,
-                                           ereport_on_violation);
+       result = (*ExecutorCheckPerms_hook) (rangeTable,
+                                            ereport_on_violation);
    return result;
 }
 
@@ -980,7 +981,7 @@ InitPlan(QueryDesc *queryDesc, int eflags)
 void
 CheckValidResultRel(Relation resultRel, CmdType operation)
 {
-   TriggerDesc *trigDesc = resultRel->trigdesc;
+   TriggerDesc *trigDesc = resultRel->trigdesc;
 
    switch (resultRel->rd_rel->relkind)
    {
@@ -1005,26 +1006,26 @@ CheckValidResultRel(Relation resultRel, CmdType operation)
                case CMD_INSERT:
                    if (!trigDesc || !trigDesc->trig_insert_instead_row)
                        ereport(ERROR,
-                               (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
-                                errmsg("cannot insert into view \"%s\"",
-                                       RelationGetRelationName(resultRel)),
-                                errhint("You need an unconditional ON INSERT DO INSTEAD rule or an INSTEAD OF INSERT trigger.")));
+                         (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
+                          errmsg("cannot insert into view \"%s\"",
+                                 RelationGetRelationName(resultRel)),
+                          errhint("You need an unconditional ON INSERT DO INSTEAD rule or an INSTEAD OF INSERT trigger.")));
                    break;
                case CMD_UPDATE:
                    if (!trigDesc || !trigDesc->trig_update_instead_row)
                        ereport(ERROR,
-                               (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
-                                errmsg("cannot update view \"%s\"",
-                                       RelationGetRelationName(resultRel)),
-                                errhint("You need an unconditional ON UPDATE DO INSTEAD rule or an INSTEAD OF UPDATE trigger.")));
+                         (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
+                          errmsg("cannot update view \"%s\"",
+                                 RelationGetRelationName(resultRel)),
+                          errhint("You need an unconditional ON UPDATE DO INSTEAD rule or an INSTEAD OF UPDATE trigger.")));
                    break;
                case CMD_DELETE:
                    if (!trigDesc || !trigDesc->trig_delete_instead_row)
                        ereport(ERROR,
-                               (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
-                                errmsg("cannot delete from view \"%s\"",
-                                       RelationGetRelationName(resultRel)),
-                                errhint("You need an unconditional ON DELETE DO INSTEAD rule or an INSTEAD OF DELETE trigger.")));
+                         (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
+                          errmsg("cannot delete from view \"%s\"",
+                                 RelationGetRelationName(resultRel)),
+                          errhint("You need an unconditional ON DELETE DO INSTEAD rule or an INSTEAD OF DELETE trigger.")));
                    break;
                default:
                    elog(ERROR, "unrecognized CmdType: %d", (int) operation);
@@ -1137,8 +1138,8 @@ ExecGetTriggerResultRel(EState *estate, Oid relid)
    /*
     * Open the target relation's relcache entry.  We assume that an
     * appropriate lock is still held by the backend from whenever the trigger
-    * event got queued, so we need take no new lock here.  Also, we need
-    * not recheck the relkind, so no need for CheckValidResultRel.
+    * event got queued, so we need take no new lock here.  Also, we need not
+    * recheck the relkind, so no need for CheckValidResultRel.
     */
    rel = heap_open(relid, NoLock);
 
@@ -1238,12 +1239,12 @@ ExecPostprocessPlan(EState *estate)
 
    /*
     * Run any secondary ModifyTable nodes to completion, in case the main
-    * query did not fetch all rows from them.  (We do this to ensure that
+    * query did not fetch all rows from them.  (We do this to ensure that
     * such nodes have predictable results.)
     */
    foreach(lc, estate->es_auxmodifytables)
    {
-       PlanState *ps = (PlanState *) lfirst(lc);
+       PlanState  *ps = (PlanState *) lfirst(lc);
 
        for (;;)
        {
@@ -2220,9 +2221,9 @@ EvalPlanQualStart(EPQState *epqstate, EState *parentestate, Plan *planTree)
     * ExecInitSubPlan expects to be able to find these entries. Some of the
     * SubPlans might not be used in the part of the plan tree we intend to
     * run, but since it's not easy to tell which, we just initialize them
-    * all.  (However, if the subplan is headed by a ModifyTable node, then
-    * it must be a data-modifying CTE, which we will certainly not need to
-    * re-run, so we can skip initializing it.  This is just an efficiency
+    * all.  (However, if the subplan is headed by a ModifyTable node, then it
+    * must be a data-modifying CTE, which we will certainly not need to
+    * re-run, so we can skip initializing it.  This is just an efficiency
     * hack; it won't skip data-modifying CTEs for which the ModifyTable node
     * is not at the top.)
     */
index c153ca00dbf520a61220015b34bc64f3909c8e26..5f0b58f43b79ae138f49c6198fcb6c1d333c523e 100644 (file)
@@ -79,9 +79,9 @@ static Datum ExecEvalWholeRowSlow(ExprState *exprstate, ExprContext *econtext,
 static Datum ExecEvalConst(ExprState *exprstate, ExprContext *econtext,
              bool *isNull, ExprDoneCond *isDone);
 static Datum ExecEvalParamExec(ExprState *exprstate, ExprContext *econtext,
-             bool *isNull, ExprDoneCond *isDone);
+                 bool *isNull, ExprDoneCond *isDone);
 static Datum ExecEvalParamExtern(ExprState *exprstate, ExprContext *econtext,
-             bool *isNull, ExprDoneCond *isDone);
+                   bool *isNull, ExprDoneCond *isDone);
 static void init_fcache(Oid foid, Oid input_collation, FuncExprState *fcache,
            MemoryContext fcacheCxt, bool needDescForSets);
 static void ShutdownFuncExpr(Datum arg);
@@ -1043,7 +1043,7 @@ ExecEvalParamExtern(ExprState *exprstate, ExprContext *econtext,
    ereport(ERROR,
            (errcode(ERRCODE_UNDEFINED_OBJECT),
             errmsg("no value found for parameter %d", thisParamId)));
-   return (Datum) 0;       /* keep compiler quiet */
+   return (Datum) 0;           /* keep compiler quiet */
 }
 
 
index 7e84ccdd9cd65033e6c8689357570e497207d7ef..0cbbe04d3bda1bd5511c16e36c96bd42cf63a7a9 100644 (file)
@@ -1319,9 +1319,9 @@ retry:
    /*
     * Ordinarily, at this point the search should have found the originally
     * inserted tuple, unless we exited the loop early because of conflict.
-    * However, it is possible to define exclusion constraints for which
-    * that wouldn't be true --- for instance, if the operator is <>.
-    * So we no longer complain if found_self is still false.
+    * However, it is possible to define exclusion constraints for which that
+    * wouldn't be true --- for instance, if the operator is <>. So we no
+    * longer complain if found_self is still false.
     */
 
    econtext->ecxt_scantuple = save_scantuple;
index 70d126c521340418cc5714d9c3d30d83f13d6c84..9c867bbae200b7354d0d15d980a9b9c102ec3bfd 100644 (file)
@@ -81,7 +81,7 @@ typedef struct
    char       *fname;          /* function name (for error msgs) */
    char       *src;            /* function body text (for error msgs) */
 
-   SQLFunctionParseInfoPtr pinfo;  /* data for parser callback hooks */
+   SQLFunctionParseInfoPtr pinfo;      /* data for parser callback hooks */
 
    Oid         rettype;        /* actual return type */
    int16       typlen;         /* length of the return type */
@@ -119,7 +119,7 @@ typedef struct SQLFunctionParseInfo
    Oid        *argtypes;       /* resolved types of input arguments */
    int         nargs;          /* number of input arguments */
    Oid         collation;      /* function's input collation, if known */
-} SQLFunctionParseInfo;
+}  SQLFunctionParseInfo;
 
 
 /* non-export function prototypes */
@@ -255,7 +255,7 @@ sql_fn_param_ref(ParseState *pstate, ParamRef *pref)
  * Set up the per-query execution_state records for a SQL function.
  *
  * The input is a List of Lists of parsed and rewritten, but not planned,
- * querytrees.  The sublist structure denotes the original query boundaries.
+ * querytrees. The sublist structure denotes the original query boundaries.
  */
 static List *
 init_execution_state(List *queryTree_list,
@@ -299,8 +299,8 @@ init_execution_state(List *queryTree_list,
                ereport(ERROR,
                        (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
                /* translator: %s is a SQL statement name */
-                        errmsg("%s is not allowed in a non-volatile function",
-                               CreateCommandTag(stmt))));
+                      errmsg("%s is not allowed in a non-volatile function",
+                             CreateCommandTag(stmt))));
 
            /* OK, build the execution_state for this query */
            newes = (execution_state *) palloc(sizeof(execution_state));
@@ -311,8 +311,8 @@ init_execution_state(List *queryTree_list,
 
            newes->next = NULL;
            newes->status = F_EXEC_START;
-           newes->setsResult = false;      /* might change below */
-           newes->lazyEval = false;        /* might change below */
+           newes->setsResult = false;  /* might change below */
+           newes->lazyEval = false;    /* might change below */
            newes->stmt = stmt;
            newes->qd = NULL;
 
@@ -442,7 +442,7 @@ init_sql_fcache(FmgrInfo *finfo, bool lazyEvalOK)
    fcache->src = TextDatumGetCString(tmp);
 
    /*
-    * Parse and rewrite the queries in the function text.  Use sublists to
+    * Parse and rewrite the queries in the function text.  Use sublists to
     * keep track of the original query boundaries.  But we also build a
     * "flat" list of the rewritten queries to pass to check_sql_fn_retval.
     * This is because the last canSetTag query determines the result type
@@ -462,7 +462,7 @@ init_sql_fcache(FmgrInfo *finfo, bool lazyEvalOK)
 
        queryTree_sublist = pg_analyze_and_rewrite_params(parsetree,
                                                          fcache->src,
-                                                         (ParserSetupHook) sql_fn_parser_setup,
+                                      (ParserSetupHook) sql_fn_parser_setup,
                                                          fcache->pinfo);
        queryTree_list = lappend(queryTree_list, queryTree_sublist);
        flat_query_list = list_concat(flat_query_list,
@@ -657,7 +657,7 @@ postquel_sub_params(SQLFunctionCachePtr fcache,
        {
            /* sizeof(ParamListInfoData) includes the first array element */
            paramLI = (ParamListInfo) palloc(sizeof(ParamListInfoData) +
-                                      (nargs - 1) *sizeof(ParamExternData));
+                                     (nargs - 1) * sizeof(ParamExternData));
            /* we have static list of params, so no hooks needed */
            paramLI->paramFetch = NULL;
            paramLI->paramFetchArg = NULL;
@@ -748,8 +748,8 @@ fmgr_sql(PG_FUNCTION_ARGS)
    execution_state *es;
    TupleTableSlot *slot;
    Datum       result;
-   List        *eslist;
-   ListCell    *eslc;
+   List       *eslist;
+   ListCell   *eslc;
 
    /*
     * Switch to context in which the fcache lives.  This ensures that
@@ -847,10 +847,10 @@ fmgr_sql(PG_FUNCTION_ARGS)
     *
     * In a non-read-only function, we rely on the fact that we'll never
     * suspend execution between queries of the function: the only reason to
-    * suspend execution before completion is if we are returning a row from
-    * lazily-evaluated SELECT.  So, when first entering this loop, we'll
+    * suspend execution before completion is if we are returning a row from a
+    * lazily-evaluated SELECT.  So, when first entering this loop, we'll
     * either start a new query (and push a fresh snapshot) or re-establish
-    * the active snapshot from the existing query descriptor.  If we need to
+    * the active snapshot from the existing query descriptor.  If we need to
     * start a new query in a subsequent execution of the loop, either we need
     * a fresh snapshot (and pushed_snapshot is false) or the existing
     * snapshot is on the active stack and we can just bump its command ID.
@@ -927,10 +927,10 @@ fmgr_sql(PG_FUNCTION_ARGS)
            es = (execution_state *) lfirst(eslc);
 
            /*
-            * Flush the current snapshot so that we will take a new one
-            * for the new query list.  This ensures that new snaps are
-            * taken at original-query boundaries, matching the behavior
-            * of interactive execution.
+            * Flush the current snapshot so that we will take a new one for
+            * the new query list.  This ensures that new snaps are taken at
+            * original-query boundaries, matching the behavior of interactive
+            * execution.
             */
            if (pushed_snapshot)
            {
@@ -1183,7 +1183,7 @@ ShutdownSQLFunction(Datum arg)
 {
    SQLFunctionCachePtr fcache = (SQLFunctionCachePtr) DatumGetPointer(arg);
    execution_state *es;
-   ListCell        *lc;
+   ListCell   *lc;
 
    foreach(lc, fcache->func_state)
    {
@@ -1415,7 +1415,7 @@ check_sql_fn_retval(Oid func_id, Oid rettype, List *queryTreeList,
         * the function that's calling it.
         *
         * XXX Note that if rettype is RECORD, the IsBinaryCoercible check
-        * will succeed for any composite restype.  For the moment we rely on
+        * will succeed for any composite restype.  For the moment we rely on
         * runtime type checking to catch any discrepancy, but it'd be nice to
         * do better at parse time.
         */
@@ -1432,7 +1432,7 @@ check_sql_fn_retval(Oid func_id, Oid rettype, List *queryTreeList,
                    tle->expr = (Expr *) makeRelabelType(tle->expr,
                                                         rettype,
                                                         -1,
-                                                        get_typcollation(rettype),
+                                                  get_typcollation(rettype),
                                                         COERCE_DONTCARE);
                    /* Relabel is dangerous if sort/group or setop column */
                    if (tle->ressortgroupref != 0 || parse->setOperations)
@@ -1536,7 +1536,7 @@ check_sql_fn_retval(Oid func_id, Oid rettype, List *queryTreeList,
                    tle->expr = (Expr *) makeRelabelType(tle->expr,
                                                         atttype,
                                                         -1,
-                                                        get_typcollation(atttype),
+                                                  get_typcollation(atttype),
                                                         COERCE_DONTCARE);
                    /* Relabel is dangerous if sort/group or setop column */
                    if (tle->ressortgroupref != 0 || parse->setOperations)
index 51b1228c26ff3f6c3310fccddb11013ea266d9c1..47555bab55bdc0d8bb6ce42683fb037a7dd6e5ed 100644 (file)
@@ -199,7 +199,7 @@ typedef struct AggStatePerAggData
     */
 
    Tuplesortstate *sortstate;  /* sort object, if DISTINCT or ORDER BY */
-} AggStatePerAggData;
+}  AggStatePerAggData;
 
 /*
  * AggStatePerGroupData - per-aggregate-per-group working state
@@ -246,7 +246,7 @@ typedef struct AggHashEntryData
    TupleHashEntryData shared;  /* common header for hash table entries */
    /* per-aggregate transition status array - must be last! */
    AggStatePerGroupData pergroup[1];   /* VARIABLE LENGTH ARRAY */
-} AggHashEntryData;                /* VARIABLE LENGTH STRUCT */
+}  AggHashEntryData;   /* VARIABLE LENGTH STRUCT */
 
 
 static void initialize_aggregates(AggState *aggstate,
@@ -827,7 +827,7 @@ build_hash_table(AggState *aggstate)
    Assert(node->numGroups > 0);
 
    entrysize = sizeof(AggHashEntryData) +
-       (aggstate->numaggs - 1) *sizeof(AggStatePerGroupData);
+       (aggstate->numaggs - 1) * sizeof(AggStatePerGroupData);
 
    aggstate->hashtable = BuildTupleHashTable(node->numCols,
                                              node->grpColIdx,
@@ -899,7 +899,7 @@ hash_agg_entry_size(int numAggs)
 
    /* This must match build_hash_table */
    entrysize = sizeof(AggHashEntryData) +
-       (numAggs - 1) *sizeof(AggStatePerGroupData);
+       (numAggs - 1) * sizeof(AggStatePerGroupData);
    entrysize = MAXALIGN(entrysize);
    /* Account for hashtable overhead (assuming fill factor = 1) */
    entrysize += 3 * sizeof(void *);
index 90ff0403ab0130b83e385689a38b1ab12a75deac..4de54ea55f6061400fb85dcc4cb562ea81b8f982 100644 (file)
@@ -307,8 +307,8 @@ ExecInitBitmapIndexScan(BitmapIndexScan *node, EState *estate, int eflags)
                               indexstate->biss_NumScanKeys);
 
    /*
-    * If no run-time keys to calculate, go ahead and pass the scankeys to
-    * the index AM.
+    * If no run-time keys to calculate, go ahead and pass the scankeys to the
+    * index AM.
     */
    if (indexstate->biss_NumRuntimeKeys == 0 &&
        indexstate->biss_NumArrayKeys == 0)
index c4309a981e271533ca07bfd58d1fd4af1f7e06aa..d50489c7f4c595d8298a67e97f33932891a75cbd 100644 (file)
@@ -40,7 +40,7 @@ static TupleTableSlot *
 ForeignNext(ForeignScanState *node)
 {
    TupleTableSlot *slot;
-   ForeignScan    *plan = (ForeignScan *) node->ss.ps.plan;
+   ForeignScan *plan = (ForeignScan *) node->ss.ps.plan;
    ExprContext *econtext = node->ss.ps.ps_ExprContext;
    MemoryContext oldcontext;
 
index 295563011fe032dc8bf7a8a65fc52e62f6d26929..1af98c81a69f0390710c6f64bcda6cfa409457a2 100644 (file)
@@ -960,13 +960,11 @@ void
 ExecPrepHashTableForUnmatched(HashJoinState *hjstate)
 {
    /*
-    *----------
-    * During this scan we use the HashJoinState fields as follows:
+    * ---------- During this scan we use the HashJoinState fields as follows:
     *
-    * hj_CurBucketNo: next regular bucket to scan
-    * hj_CurSkewBucketNo: next skew bucket (an index into skewBucketNums)
-    * hj_CurTuple: last tuple returned, or NULL to start next bucket
-    *----------
+    * hj_CurBucketNo: next regular bucket to scan hj_CurSkewBucketNo: next
+    * skew bucket (an index into skewBucketNums) hj_CurTuple: last tuple
+    * returned, or NULL to start next bucket ----------
     */
    hjstate->hj_CurBucketNo = 0;
    hjstate->hj_CurSkewBucketNo = 0;
@@ -1003,7 +1001,7 @@ ExecScanHashTableForUnmatched(HashJoinState *hjstate, ExprContext *econtext)
        }
        else if (hjstate->hj_CurSkewBucketNo < hashtable->nSkewBuckets)
        {
-           int     j = hashtable->skewBucketNums[hjstate->hj_CurSkewBucketNo];
+           int         j = hashtable->skewBucketNums[hjstate->hj_CurSkewBucketNo];
 
            hashTuple = hashtable->skewBucket[j]->tuples;
            hjstate->hj_CurSkewBucketNo++;
@@ -1020,7 +1018,7 @@ ExecScanHashTableForUnmatched(HashJoinState *hjstate, ExprContext *econtext)
                /* insert hashtable's tuple into exec slot */
                inntuple = ExecStoreMinimalTuple(HJTUPLE_MINTUPLE(hashTuple),
                                                 hjstate->hj_HashTupleSlot,
-                                                false);    /* do not pfree */
+                                                false);        /* do not pfree */
                econtext->ecxt_innertuple = inntuple;
 
                /*
@@ -1091,7 +1089,7 @@ ExecHashTableResetMatchFlags(HashJoinTable hashtable)
    /* ... and the same for the skew buckets, if any */
    for (i = 0; i < hashtable->nSkewBuckets; i++)
    {
-       int     j = hashtable->skewBucketNums[i];
+       int         j = hashtable->skewBucketNums[i];
        HashSkewBucket *skewBucket = hashtable->skewBucket[j];
 
        for (tuple = skewBucket->tuples; tuple != NULL; tuple = tuple->next)
index a6847c956f4c61a6375360e18e206fa5f3c86eff..7c02db94adb6dc068a71e4d0ba9a8f8ee53840a7 100644 (file)
@@ -113,6 +113,7 @@ ExecHashJoin(HashJoinState *node)
        switch (node->hj_JoinState)
        {
            case HJ_BUILD_HASHTABLE:
+
                /*
                 * First time through: build hash table for inner relation.
                 */
@@ -123,12 +124,12 @@ ExecHashJoin(HashJoinState *node)
                 * right/full join, we can quit without building the hash
                 * table.  However, for an inner join it is only a win to
                 * check this when the outer relation's startup cost is less
-                * than the projected cost of building the hash
-                * table.  Otherwise it's best to build the hash table first
-                * and see if the inner relation is empty.  (When it's a left
-                * join, we should always make this check, since we aren't
-                * going to be able to skip the join on the strength of an
-                * empty inner relation anyway.)
+                * than the projected cost of building the hash table.
+                * Otherwise it's best to build the hash table first and see
+                * if the inner relation is empty.  (When it's a left join, we
+                * should always make this check, since we aren't going to be
+                * able to skip the join on the strength of an empty inner
+                * relation anyway.)
                 *
                 * If we are rescanning the join, we make use of information
                 * gained on the previous scan: don't bother to try the
@@ -185,8 +186,8 @@ ExecHashJoin(HashJoinState *node)
                    return NULL;
 
                /*
-                * need to remember whether nbatch has increased since we began
-                * scanning the outer relation
+                * need to remember whether nbatch has increased since we
+                * began scanning the outer relation
                 */
                hashtable->nbatch_outstart = hashtable->nbatch;
 
@@ -202,6 +203,7 @@ ExecHashJoin(HashJoinState *node)
                /* FALL THRU */
 
            case HJ_NEED_NEW_OUTER:
+
                /*
                 * We don't have an outer tuple, try to get the next one
                 */
@@ -250,7 +252,7 @@ ExecHashJoin(HashJoinState *node)
                    Assert(batchno > hashtable->curbatch);
                    ExecHashJoinSaveTuple(ExecFetchSlotMinimalTuple(outerTupleSlot),
                                          hashvalue,
-                                         &hashtable->outerBatchFile[batchno]);
+                                       &hashtable->outerBatchFile[batchno]);
                    /* Loop around, staying in HJ_NEED_NEW_OUTER state */
                    continue;
                }
@@ -261,6 +263,7 @@ ExecHashJoin(HashJoinState *node)
                /* FALL THRU */
 
            case HJ_SCAN_BUCKET:
+
                /*
                 * Scan the selected hash bucket for matches to current outer
                 */
@@ -296,8 +299,8 @@ ExecHashJoin(HashJoinState *node)
                    }
 
                    /*
-                    * In a semijoin, we'll consider returning the first match,
-                    * but after that we're done with this outer tuple.
+                    * In a semijoin, we'll consider returning the first
+                    * match, but after that we're done with this outer tuple.
                     */
                    if (node->js.jointype == JOIN_SEMI)
                        node->hj_JoinState = HJ_NEED_NEW_OUTER;
@@ -320,10 +323,11 @@ ExecHashJoin(HashJoinState *node)
                break;
 
            case HJ_FILL_OUTER_TUPLE:
+
                /*
                 * The current outer tuple has run out of matches, so check
-                * whether to emit a dummy outer-join tuple.  Whether we
-                * emit one or not, the next state is NEED_NEW_OUTER.
+                * whether to emit a dummy outer-join tuple.  Whether we emit
+                * one or not, the next state is NEED_NEW_OUTER.
                 */
                node->hj_JoinState = HJ_NEED_NEW_OUTER;
 
@@ -354,6 +358,7 @@ ExecHashJoin(HashJoinState *node)
                break;
 
            case HJ_FILL_INNER_TUPLES:
+
                /*
                 * We have finished a batch, but we are doing right/full join,
                 * so any unmatched inner tuples in the hashtable have to be
@@ -389,11 +394,12 @@ ExecHashJoin(HashJoinState *node)
                break;
 
            case HJ_NEED_NEW_BATCH:
+
                /*
                 * Try to advance to next batch.  Done if there are no more.
                 */
                if (!ExecHashJoinNewBatch(node))
-                   return NULL;                /* end of join */
+                   return NULL;    /* end of join */
                node->hj_JoinState = HJ_NEED_NEW_OUTER;
                break;
 
@@ -783,7 +789,7 @@ ExecHashJoinNewBatch(HashJoinState *hjstate)
    }
 
    if (curbatch >= nbatch)
-       return false;       /* no more batches */
+       return false;           /* no more batches */
 
    hashtable->curbatch = curbatch;
 
@@ -829,7 +835,7 @@ ExecHashJoinNewBatch(HashJoinState *hjstate)
        if (BufFileSeek(hashtable->outerBatchFile[curbatch], 0, 0L, SEEK_SET))
            ereport(ERROR,
                    (errcode_for_file_access(),
-                    errmsg("could not rewind hash-join temporary file: %m")));
+                  errmsg("could not rewind hash-join temporary file: %m")));
    }
 
    return true;
@@ -944,14 +950,13 @@ ExecReScanHashJoin(HashJoinState *node)
                ExecHashTableResetMatchFlags(node->hj_HashTable);
 
            /*
-            * Also, we need to reset our state about the emptiness of
-            * the outer relation, so that the new scan of the outer will
-            * update it correctly if it turns out to be empty this time.
-            * (There's no harm in clearing it now because ExecHashJoin won't
-            * need the info.  In the other cases, where the hash table
-            * doesn't exist or we are destroying it, we leave this state
-            * alone because ExecHashJoin will need it the first time
-            * through.)
+            * Also, we need to reset our state about the emptiness of the
+            * outer relation, so that the new scan of the outer will update
+            * it correctly if it turns out to be empty this time. (There's no
+            * harm in clearing it now because ExecHashJoin won't need the
+            * info.  In the other cases, where the hash table doesn't exist
+            * or we are destroying it, we leave this state alone because
+            * ExecHashJoin will need it the first time through.)
             */
            node->hj_OuterNotEmpty = false;
 
index 3b8741fc21b63cf346e244be2eee0587095597d5..d8e59ca39e5e08a195421171c66d8b24428e14a6 100644 (file)
@@ -212,7 +212,7 @@ ExecIndexEvalRuntimeKeys(ExprContext *econtext,
 
        /*
         * For each run-time key, extract the run-time expression and evaluate
-        * it with respect to the current context.  We then stick the result
+        * it with respect to the current context.  We then stick the result
         * into the proper scan key.
         *
         * Note: the result of the eval could be a pass-by-ref value that's
@@ -605,16 +605,16 @@ ExecInitIndexScan(IndexScan *node, EState *estate, int eflags)
                                               indexstate->iss_RelationDesc,
                                               estate->es_snapshot,
                                               indexstate->iss_NumScanKeys,
-                                              indexstate->iss_NumOrderByKeys);
+                                            indexstate->iss_NumOrderByKeys);
 
    /*
-    * If no run-time keys to calculate, go ahead and pass the scankeys to
-    * the index AM.
+    * If no run-time keys to calculate, go ahead and pass the scankeys to the
+    * index AM.
     */
    if (indexstate->iss_NumRuntimeKeys == 0)
        index_rescan(indexstate->iss_ScanDesc,
                     indexstate->iss_ScanKeys, indexstate->iss_NumScanKeys,
-                    indexstate->iss_OrderByKeys, indexstate->iss_NumOrderByKeys);
+               indexstate->iss_OrderByKeys, indexstate->iss_NumOrderByKeys);
 
    /*
     * all done.
@@ -703,11 +703,11 @@ ExecIndexBuildScanKeys(PlanState *planstate, Relation index, Index scanrelid,
    scan_keys = (ScanKey) palloc(n_scan_keys * sizeof(ScanKeyData));
 
    /*
-    * runtime_keys array is dynamically resized as needed.  We handle it
-    * this way so that the same runtime keys array can be shared between
-    * indexquals and indexorderbys, which will be processed in separate
-    * calls of this function.  Caller must be sure to pass in NULL/0 for
-    * first call.
+    * runtime_keys array is dynamically resized as needed.  We handle it this
+    * way so that the same runtime keys array can be shared between
+    * indexquals and indexorderbys, which will be processed in separate calls
+    * of this function.  Caller must be sure to pass in NULL/0 for first
+    * call.
     */
    runtime_keys = *runtimeKeys;
    n_runtime_keys = max_runtime_keys = *numRuntimeKeys;
index edbe0558b70d784957de85460273f74320fdfc65..85d1a6e27f110df00e6b2ad405ab1624bd56b16d 100644 (file)
@@ -346,14 +346,14 @@ pass_down_bound(LimitState *node, PlanState *child_node)
    else if (IsA(child_node, ResultState))
    {
        /*
-        * An extra consideration here is that if the Result is projecting
-        * a targetlist that contains any SRFs, we can't assume that every
-        * input tuple generates an output tuple, so a Sort underneath
-        * might need to return more than N tuples to satisfy LIMIT N.
-        * So we cannot use bounded sort.
+        * An extra consideration here is that if the Result is projecting a
+        * targetlist that contains any SRFs, we can't assume that every input
+        * tuple generates an output tuple, so a Sort underneath might need to
+        * return more than N tuples to satisfy LIMIT N. So we cannot use
+        * bounded sort.
         *
-        * If Result supported qual checking, we'd have to punt on seeing
-        * qual, too.  Note that having a resconstantqual is not a
+        * If Result supported qual checking, we'd have to punt on seeing a
+        * qual, too.  Note that having a resconstantqual is not a
         * showstopper: if that fails we're not getting any rows at all.
         */
        if (outerPlanState(child_node) &&
index 2e08008807172e7b32b74c951063aafd8c320baa..d71278ebd729f682f6b1220cd0f43a2334c66635 100644 (file)
@@ -291,7 +291,7 @@ ExecInitLockRows(LockRows *node, EState *estate, int eflags)
 
    /*
     * Locate the ExecRowMark(s) that this node is responsible for, and
-    * construct ExecAuxRowMarks for them.  (InitPlan should already have
+    * construct ExecAuxRowMarks for them.  (InitPlan should already have
     * built the global list of ExecRowMarks.)
     */
    lrstate->lr_arowMarks = NIL;
index 73920f21c8c2a27889c2cbbcf8d3d2190fe94f73..4ebe0cbe033372d6016c58d2aee7f2863ef3ba77 100644 (file)
@@ -48,8 +48,8 @@
  * contains integers which index into the slots array. These typedefs try to
  * clear it up, but they're only documentation.
  */
-typedef int        SlotNumber;
-typedef int        HeapPosition;
+typedef int SlotNumber;
+typedef int HeapPosition;
 
 static void heap_insert_slot(MergeAppendState *node, SlotNumber new_slot);
 static void heap_siftup_slot(MergeAppendState *node);
@@ -128,13 +128,13 @@ ExecInitMergeAppend(MergeAppend *node, EState *estate, int eflags)
     * initialize sort-key information
     */
    mergestate->ms_nkeys = node->numCols;
-   mergestate->ms_scankeys = palloc0(sizeof(ScanKeyData) *  node->numCols);
+   mergestate->ms_scankeys = palloc0(sizeof(ScanKeyData) * node->numCols);
 
    for (i = 0; i < node->numCols; i++)
    {
-       Oid     sortFunction;
-       bool    reverse;
-       int     flags;
+       Oid         sortFunction;
+       bool        reverse;
+       int         flags;
 
        if (!get_compare_function_for_ordering_op(node->sortOperators[i],
                                                  &sortFunction, &reverse))
@@ -187,8 +187,8 @@ ExecMergeAppend(MergeAppendState *node)
    if (!node->ms_initialized)
    {
        /*
-        * First time through: pull the first tuple from each subplan,
-        * and set up the heap.
+        * First time through: pull the first tuple from each subplan, and set
+        * up the heap.
         */
        for (i = 0; i < node->ms_nplans; i++)
        {
@@ -243,7 +243,7 @@ heap_insert_slot(MergeAppendState *node, SlotNumber new_slot)
    j = node->ms_heap_size++;   /* j is where the "hole" is */
    while (j > 0)
    {
-       int     i = (j-1)/2;
+       int         i = (j - 1) / 2;
 
        if (heap_compare_slots(node, new_slot, node->ms_heap[i]) >= 0)
            break;
@@ -269,11 +269,11 @@ heap_siftup_slot(MergeAppendState *node)
    i = 0;                      /* i is where the "hole" is */
    for (;;)
    {
-       int     j = 2 * i + 1;
+       int         j = 2 * i + 1;
 
        if (j >= n)
            break;
-       if (j+1 < n && heap_compare_slots(node, heap[j], heap[j+1]) > 0)
+       if (j + 1 < n && heap_compare_slots(node, heap[j], heap[j + 1]) > 0)
            j++;
        if (heap_compare_slots(node, heap[n], heap[j]) <= 0)
            break;
@@ -298,13 +298,13 @@ heap_compare_slots(MergeAppendState *node, SlotNumber slot1, SlotNumber slot2)
 
    for (nkey = 0; nkey < node->ms_nkeys; nkey++)
    {
-       ScanKey scankey = node->ms_scankeys + nkey;
-       AttrNumber attno = scankey->sk_attno;
-       Datum   datum1,
-               datum2;
-       bool    isNull1,
-               isNull2;
-       int32   compare;
+       ScanKey     scankey = node->ms_scankeys + nkey;
+       AttrNumber  attno = scankey->sk_attno;
+       Datum       datum1,
+                   datum2;
+       bool        isNull1,
+                   isNull2;
+       int32       compare;
 
        datum1 = slot_getattr(s1, attno, &isNull1);
        datum2 = slot_getattr(s2, attno, &isNull2);
index 75c3a645359131160f1b0b60e6d755ad3330f0db..ce5462e961ea8c7c6e0cd0936e1a7d9c931132e9 100644 (file)
@@ -143,7 +143,7 @@ typedef struct MergeJoinClauseData
    bool        reverse;        /* if true, negate the cmpfn's output */
    bool        nulls_first;    /* if true, nulls sort low */
    FmgrInfo    cmpfinfo;
-} MergeJoinClauseData;
+}  MergeJoinClauseData;
 
 /* Result type for MJEvalOuterValues and MJEvalInnerValues */
 typedef enum
index f10f70a17d3d773b6f3911686cf581611fba6915..c0eab4bf0db894dce689bfcabbde4d7e281b7714 100644 (file)
@@ -544,7 +544,7 @@ ExecUpdate(ItemPointer tupleid,
         *
         * If we generate a new candidate tuple after EvalPlanQual testing, we
         * must loop back here and recheck constraints.  (We don't need to
-        * redo triggers, however.  If there are any BEFORE triggers then
+        * redo triggers, however.  If there are any BEFORE triggers then
         * trigger.c will have done heap_lock_tuple to lock the correct tuple,
         * so there's no need to do them again.)
         */
@@ -608,11 +608,10 @@ lreplace:;
 
        /*
         * Note: instead of having to update the old index tuples associated
-        * with the heap tuple, all we do is form and insert new index
-        * tuples. This is because UPDATEs are actually DELETEs and INSERTs,
-        * and index tuple deletion is done later by VACUUM (see notes in
-        * ExecDelete). All we do here is insert new index tuples.  -cim
-        * 9/27/89
+        * with the heap tuple, all we do is form and insert new index tuples.
+        * This is because UPDATEs are actually DELETEs and INSERTs, and index
+        * tuple deletion is done later by VACUUM (see notes in ExecDelete).
+        * All we do here is insert new index tuples.  -cim 9/27/89
         */
 
        /*
@@ -713,7 +712,7 @@ ExecModifyTable(ModifyTableState *node)
    TupleTableSlot *planSlot;
    ItemPointer tupleid = NULL;
    ItemPointerData tuple_ctid;
-   HeapTupleHeader oldtuple = NULL;
+   HeapTupleHeader oldtuple = NULL;
 
    /*
     * If we've already completed processing, don't try to do more.  We need
@@ -740,7 +739,7 @@ ExecModifyTable(ModifyTableState *node)
 
    /*
     * es_result_relation_info must point to the currently active result
-    * relation while we are within this ModifyTable node.  Even though
+    * relation while we are within this ModifyTable node.  Even though
     * ModifyTable nodes can't be nested statically, they can be nested
     * dynamically (since our subplan could include a reference to a modifying
     * CTE).  So we have to save and restore the caller's value.
@@ -756,7 +755,7 @@ ExecModifyTable(ModifyTableState *node)
    for (;;)
    {
        /*
-        * Reset the per-output-tuple exprcontext.  This is needed because
+        * Reset the per-output-tuple exprcontext.  This is needed because
         * triggers expect to use that context as workspace.  It's a bit ugly
         * to do this below the top level of the plan, however.  We might need
         * to rethink this later.
@@ -806,7 +805,8 @@ ExecModifyTable(ModifyTableState *node)
                        elog(ERROR, "ctid is NULL");
 
                    tupleid = (ItemPointer) DatumGetPointer(datum);
-                   tuple_ctid = *tupleid;  /* be sure we don't free ctid!! */
+                   tuple_ctid = *tupleid;      /* be sure we don't free
+                                                * ctid!! */
                    tupleid = &tuple_ctid;
                }
                else
@@ -836,11 +836,11 @@ ExecModifyTable(ModifyTableState *node)
                break;
            case CMD_UPDATE:
                slot = ExecUpdate(tupleid, oldtuple, slot, planSlot,
-                                 &node->mt_epqstate, estate, node->canSetTag);
+                               &node->mt_epqstate, estate, node->canSetTag);
                break;
            case CMD_DELETE:
                slot = ExecDelete(tupleid, oldtuple, planSlot,
-                                 &node->mt_epqstate, estate, node->canSetTag);
+                               &node->mt_epqstate, estate, node->canSetTag);
                break;
            default:
                elog(ERROR, "unknown operation");
@@ -922,9 +922,9 @@ ExecInitModifyTable(ModifyTable *node, EState *estate, int eflags)
 
    /*
     * call ExecInitNode on each of the plans to be executed and save the
-    * results into the array "mt_plans".  This is also a convenient place
-    * to verify that the proposed target relations are valid and open their
-    * indexes for insertion of new index entries.  Note we *must* set
+    * results into the array "mt_plans".  This is also a convenient place to
+    * verify that the proposed target relations are valid and open their
+    * indexes for insertion of new index entries.  Note we *must* set
     * estate->es_result_relation_info correctly while we initialize each
     * sub-plan; ExecContextForcesOids depends on that!
     */
@@ -944,7 +944,7 @@ ExecInitModifyTable(ModifyTable *node, EState *estate, int eflags)
        /*
         * If there are indices on the result relation, open them and save
         * descriptors in the result relation info, so that we can add new
-        * index entries for the tuples we add/update.  We need not do this
+        * index entries for the tuples we add/update.  We need not do this
         * for a DELETE, however, since deletion doesn't affect indexes.
         */
        if (resultRelInfo->ri_RelationDesc->rd_rel->relhasindex &&
@@ -1147,10 +1147,10 @@ ExecInitModifyTable(ModifyTable *node, EState *estate, int eflags)
     * Lastly, if this is not the primary (canSetTag) ModifyTable node, add it
     * to estate->es_auxmodifytables so that it will be run to completion by
     * ExecPostprocessPlan.  (It'd actually work fine to add the primary
-    * ModifyTable node too, but there's no need.)  Note the use of lcons
-    * not lappend: we need later-initialized ModifyTable nodes to be shut
-    * down before earlier ones.  This ensures that we don't throw away
-    * RETURNING rows that need to be seen by a later CTE subplan.
+    * ModifyTable node too, but there's no need.)  Note the use of lcons not
+    * lappend: we need later-initialized ModifyTable nodes to be shut down
+    * before earlier ones.  This ensures that we don't throw away RETURNING
+    * rows that need to be seen by a later CTE subplan.
     */
    if (!mtstate->canSetTag)
        estate->es_auxmodifytables = lcons(mtstate,
index 4893a6ea6d6180e6a1d79486b1f3edfeabfc5ccb..e98bc0f5a308bd27bd624c6342e4a22fffe530a7 100644 (file)
@@ -137,9 +137,8 @@ ExecNestLoop(NestLoopState *node)
            node->nl_MatchedOuter = false;
 
            /*
-            * fetch the values of any outer Vars that must be passed to
-            * the inner scan, and store them in the appropriate PARAM_EXEC
-            * slots.
+            * fetch the values of any outer Vars that must be passed to the
+            * inner scan, and store them in the appropriate PARAM_EXEC slots.
             */
            foreach(lc, nl->nestParams)
            {
@@ -330,9 +329,9 @@ ExecInitNestLoop(NestLoop *node, EState *estate, int eflags)
     *
     * If we have no parameters to pass into the inner rel from the outer,
     * tell the inner child that cheap rescans would be good.  If we do have
-    * such parameters, then there is no point in REWIND support at all in
-    * the inner child, because it will always be rescanned with fresh
-    * parameter values.
+    * such parameters, then there is no point in REWIND support at all in the
+    * inner child, because it will always be rescanned with fresh parameter
+    * values.
     */
    outerPlanState(nlstate) = ExecInitNode(outerPlan(node), estate, eflags);
    if (node->nestParams == NIL)
index 84c051854bbbf585a87b1d0f5161e510d7f46099..12e1b9a58577276cc03fffb99e38adc5ca374fa2 100644 (file)
@@ -29,7 +29,7 @@ typedef struct RUHashEntryData *RUHashEntry;
 typedef struct RUHashEntryData
 {
    TupleHashEntryData shared;  /* common header for hash table entries */
-} RUHashEntryData;
+}  RUHashEntryData;
 
 
 /*
index aa352d7822e88e8540fdc21ec50d8ab1596e9fb8..9106f14873024c3d8c039ab8383207111936e6e6 100644 (file)
@@ -76,7 +76,7 @@ typedef struct SetOpHashEntryData
 {
    TupleHashEntryData shared;  /* common header for hash table entries */
    SetOpStatePerGroupData pergroup;
-} SetOpHashEntryData;
+}  SetOpHashEntryData;
 
 
 static TupleTableSlot *setop_retrieve_direct(SetOpState *setopstate);
index 5680efeb69ebe19e18882ecfc9e31c7bbb3366a1..25d9298cefc2460e706309d1a1972c124c555a28 100644 (file)
@@ -92,7 +92,7 @@ typedef struct WindowStatePerFuncData
    int         aggno;          /* if so, index of its PerAggData */
 
    WindowObject winobj;        /* object used in window function API */
-} WindowStatePerFuncData;
+}  WindowStatePerFuncData;
 
 /*
  * For plain aggregate window functions, we also have one of these.
index a717a0deeade014f4853cf9bc7a8adda79d59a12..6e723ca092b323bfca4d8415bc24acc4b5a16b7d 100644 (file)
@@ -1787,8 +1787,8 @@ _SPI_execute_plan(SPIPlanPtr plan, ParamListInfo paramLI,
     * snapshot != InvalidSnapshot, read_only = true: use exactly the given
     * snapshot.
     *
-    * snapshot != InvalidSnapshot, read_only = false: use the given
-    * snapshot, modified by advancing its command ID before each querytree.
+    * snapshot != InvalidSnapshot, read_only = false: use the given snapshot,
+    * modified by advancing its command ID before each querytree.
     *
     * snapshot == InvalidSnapshot, read_only = true: use the entry-time
     * ActiveSnapshot, if any (if there isn't one, we run with no snapshot).
@@ -1797,8 +1797,8 @@ _SPI_execute_plan(SPIPlanPtr plan, ParamListInfo paramLI,
     * snapshot for each user command, and advance its command ID before each
     * querytree within the command.
     *
-    * In the first two cases, we can just push the snap onto the stack
-    * once for the whole plan list.
+    * In the first two cases, we can just push the snap onto the stack once
+    * for the whole plan list.
     */
    if (snapshot != InvalidSnapshot)
    {
@@ -2028,7 +2028,7 @@ _SPI_convert_params(int nargs, Oid *argtypes,
 
        /* sizeof(ParamListInfoData) includes the first array element */
        paramLI = (ParamListInfo) palloc(sizeof(ParamListInfoData) +
-                                      (nargs - 1) *sizeof(ParamExternData));
+                                     (nargs - 1) * sizeof(ParamExternData));
        /* we have static list of params, so no hooks needed */
        paramLI->paramFetch = NULL;
        paramLI->paramFetchArg = NULL;
index 151ec5613b4a1fd0481c9d5e51f4c2611eec98fd..d003b1206a14d4cec684c3ad01073f4d004fd1f1 100644 (file)
@@ -61,6 +61,7 @@ static int    recv_and_check_password_packet(Port *port);
 #define IDENT_PORT 113
 
 static int ident_inet(hbaPort *port);
+
 #ifdef HAVE_UNIX_SOCKETS
 static int auth_peer(hbaPort *port);
 #endif
@@ -182,7 +183,7 @@ static int  pg_GSS_recvauth(Port *port);
  *----------------------------------------------------------------
  */
 #ifdef ENABLE_SSPI
-typedef        SECURITY_STATUS
+typedef SECURITY_STATUS
            (WINAPI * QUERY_SECURITY_CONTEXT_TOKEN_FN) (
                                                       PCtxtHandle, void **);
 static int pg_SSPI_recvauth(Port *port);
@@ -543,7 +544,7 @@ ClientAuthentication(Port *port)
            }
 #endif
            status = auth_peer(port);
-#else /* HAVE_UNIX_SOCKETS */
+#else                          /* HAVE_UNIX_SOCKETS */
            Assert(false);
 #endif
            break;
@@ -598,7 +599,7 @@ ClientAuthentication(Port *port)
    }
 
    if (ClientAuthentication_hook)
-       (*ClientAuthentication_hook)(port, status);
+       (*ClientAuthentication_hook) (port, status);
 
    if (status == STATUS_OK)
        sendAuthRequest(port, AUTH_REQ_OK);
@@ -844,7 +845,7 @@ pg_krb5_recvauth(Port *port)
        return ret;
 
    retval = krb5_recvauth(pg_krb5_context, &auth_context,
-                          (krb5_pointer) & port->sock, pg_krb_srvnam,
+                          (krb5_pointer) &port->sock, pg_krb_srvnam,
                           pg_krb5_server, 0, pg_krb5_keytab, &ticket);
    if (retval)
    {
@@ -1814,7 +1815,6 @@ auth_peer(hbaPort *port)
    }
 
    strlcpy(ident_user, pass->pw_name, IDENT_USERNAME_MAX + 1);
-
 #elif defined(SO_PEERCRED)
    /* Linux style: use getsockopt(SO_PEERCRED) */
    struct ucred peercred;
@@ -1843,7 +1843,6 @@ auth_peer(hbaPort *port)
    }
 
    strlcpy(ident_user, pass->pw_name, IDENT_USERNAME_MAX + 1);
-
 #elif defined(HAVE_GETPEERUCRED)
    /* Solaris > 10 */
    uid_t       uid;
@@ -1879,7 +1878,6 @@ auth_peer(hbaPort *port)
    }
 
    strlcpy(ident_user, pass->pw_name, IDENT_USERNAME_MAX + 1);
-
 #elif defined(HAVE_STRUCT_CMSGCRED) || defined(HAVE_STRUCT_FCRED) || (defined(HAVE_STRUCT_SOCKCRED) && defined(LOCAL_CREDS))
    struct msghdr msg;
 
@@ -1947,7 +1945,6 @@ auth_peer(hbaPort *port)
    }
 
    strlcpy(ident_user, pw->pw_name, IDENT_USERNAME_MAX + 1);
-
 #else
    ereport(LOG,
            (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
@@ -2768,10 +2765,10 @@ CheckRADIUSAuth(Port *port)
    pg_freeaddrinfo_all(hint.ai_family, serveraddrs);
 
    /*
-    * Figure out at what time we should time out. We can't just use
-    * a single call to select() with a timeout, since somebody can
-    * be sending invalid packets to our port thus causing us to
-    * retry in a loop and never time out.
+    * Figure out at what time we should time out. We can't just use a single
+    * call to select() with a timeout, since somebody can be sending invalid
+    * packets to our port thus causing us to retry in a loop and never time
+    * out.
     */
    gettimeofday(&endtime, NULL);
    endtime.tv_sec += RADIUS_TIMEOUT;
@@ -2780,7 +2777,7 @@ CheckRADIUSAuth(Port *port)
    {
        struct timeval timeout;
        struct timeval now;
-       int64 timeoutval;
+       int64       timeoutval;
 
        gettimeofday(&now, NULL);
        timeoutval = (endtime.tv_sec * 1000000 + endtime.tv_usec) - (now.tv_sec * 1000000 + now.tv_usec);
@@ -2820,12 +2817,12 @@ CheckRADIUSAuth(Port *port)
        /*
         * Attempt to read the response packet, and verify the contents.
         *
-        * Any packet that's not actually a RADIUS packet, or otherwise
-        * does not validate as an explicit reject, is just ignored and
-        * we retry for another packet (until we reach the timeout). This
-        * is to avoid the possibility to denial-of-service the login by
-        * flooding the server with invalid packets on the port that
-        * we're expecting the RADIUS response on.
+        * Any packet that's not actually a RADIUS packet, or otherwise does
+        * not validate as an explicit reject, is just ignored and we retry
+        * for another packet (until we reach the timeout). This is to avoid
+        * the possibility to denial-of-service the login by flooding the
+        * server with invalid packets on the port that we're expecting the
+        * RADIUS response on.
         */
 
        addrsize = sizeof(remoteaddr);
@@ -2846,12 +2843,12 @@ CheckRADIUSAuth(Port *port)
        {
 #ifdef HAVE_IPV6
            ereport(LOG,
-                   (errmsg("RADIUS response was sent from incorrect port: %i",
-                           ntohs(remoteaddr.sin6_port))));
+                 (errmsg("RADIUS response was sent from incorrect port: %i",
+                         ntohs(remoteaddr.sin6_port))));
 #else
            ereport(LOG,
-                   (errmsg("RADIUS response was sent from incorrect port: %i",
-                           ntohs(remoteaddr.sin_port))));
+                 (errmsg("RADIUS response was sent from incorrect port: %i",
+                         ntohs(remoteaddr.sin_port))));
 #endif
            continue;
        }
@@ -2885,12 +2882,12 @@ CheckRADIUSAuth(Port *port)
         */
        cryptvector = palloc(packetlength + strlen(port->hba->radiussecret));
 
-       memcpy(cryptvector, receivepacket, 4);      /* code+id+length */
-       memcpy(cryptvector + 4, packet->vector, RADIUS_VECTOR_LENGTH);      /* request
-                                                                            * authenticator, from
-                                                                            * original packet */
-       if (packetlength > RADIUS_HEADER_LENGTH)    /* there may be no attributes
-                                                    * at all */
+       memcpy(cryptvector, receivepacket, 4);  /* code+id+length */
+       memcpy(cryptvector + 4, packet->vector, RADIUS_VECTOR_LENGTH);  /* request
+                                                                        * authenticator, from
+                                                                        * original packet */
+       if (packetlength > RADIUS_HEADER_LENGTH)        /* there may be no
+                                                        * attributes at all */
            memcpy(cryptvector + RADIUS_HEADER_LENGTH, receive_buffer + RADIUS_HEADER_LENGTH, packetlength - RADIUS_HEADER_LENGTH);
        memcpy(cryptvector + packetlength, port->hba->radiussecret, strlen(port->hba->radiussecret));
 
@@ -2899,7 +2896,7 @@ CheckRADIUSAuth(Port *port)
                           encryptedpassword))
        {
            ereport(LOG,
-                   (errmsg("could not perform MD5 encryption of received packet")));
+           (errmsg("could not perform MD5 encryption of received packet")));
            pfree(cryptvector);
            continue;
        }
@@ -2925,9 +2922,9 @@ CheckRADIUSAuth(Port *port)
        else
        {
            ereport(LOG,
-                   (errmsg("RADIUS response has invalid code (%i) for user \"%s\"",
-                           receivepacket->code, port->user_name)));
+            (errmsg("RADIUS response has invalid code (%i) for user \"%s\"",
+                    receivepacket->code, port->user_name)));
            continue;
        }
-   } /* while (true) */
+   }                           /* while (true) */
 }
index 2def6cea894852b01e786b308d5db343552fab6b..fdc29aaa72d3f081904153443c372edf0d5bd2b5 100644 (file)
@@ -543,7 +543,7 @@ check_db(const char *dbname, const char *role, Oid roleid, char *param_str)
 }
 
 static bool
-ipv4eq(struct sockaddr_in *a, struct sockaddr_in *b)
+ipv4eq(struct sockaddr_in * a, struct sockaddr_in * b)
 {
    return (a->sin_addr.s_addr == b->sin_addr.s_addr);
 }
@@ -551,9 +551,9 @@ ipv4eq(struct sockaddr_in *a, struct sockaddr_in *b)
 #ifdef HAVE_IPV6
 
 static bool
-ipv6eq(struct sockaddr_in6 *a, struct sockaddr_in6 *b)
+ipv6eq(struct sockaddr_in6 * a, struct sockaddr_in6 * b)
 {
-   int i;
+   int         i;
 
    for (i = 0; i < 16; i++)
        if (a->sin6_addr.s6_addr[i] != b->sin6_addr.s6_addr[i])
@@ -561,8 +561,7 @@ ipv6eq(struct sockaddr_in6 *a, struct sockaddr_in6 *b)
 
    return true;
 }
-
-#endif /* HAVE_IPV6 */
+#endif   /* HAVE_IPV6 */
 
 /*
  * Check whether host name matches pattern.
@@ -572,8 +571,8 @@ hostname_match(const char *pattern, const char *actual_hostname)
 {
    if (pattern[0] == '.')      /* suffix match */
    {
-       size_t plen = strlen(pattern);
-       size_t hlen = strlen(actual_hostname);
+       size_t      plen = strlen(pattern);
+       size_t      hlen = strlen(actual_hostname);
 
        if (hlen < plen)
            return false;
@@ -590,7 +589,8 @@ hostname_match(const char *pattern, const char *actual_hostname)
 static bool
 check_hostname(hbaPort *port, const char *hostname)
 {
-   struct addrinfo *gai_result, *gai;
+   struct addrinfo *gai_result,
+              *gai;
    int         ret;
    bool        found;
 
@@ -632,7 +632,7 @@ check_hostname(hbaPort *port, const char *hostname)
            if (gai->ai_addr->sa_family == AF_INET)
            {
                if (ipv4eq((struct sockaddr_in *) gai->ai_addr,
-                          (struct sockaddr_in *) &port->raddr.addr))
+                          (struct sockaddr_in *) & port->raddr.addr))
                {
                    found = true;
                    break;
@@ -642,7 +642,7 @@ check_hostname(hbaPort *port, const char *hostname)
            else if (gai->ai_addr->sa_family == AF_INET6)
            {
                if (ipv6eq((struct sockaddr_in6 *) gai->ai_addr,
-                          (struct sockaddr_in6 *) &port->raddr.addr))
+                          (struct sockaddr_in6 *) & port->raddr.addr))
                {
                    found = true;
                    break;
@@ -974,8 +974,8 @@ parse_hba_line(List *line, int line_num, HbaLine *parsedline)
                            (errcode(ERRCODE_CONFIG_FILE_ERROR),
                             errmsg("specifying both host name and CIDR mask is invalid: \"%s\"",
                                    token),
-                            errcontext("line %d of configuration file \"%s\"",
-                                       line_num, HbaFileName)));
+                          errcontext("line %d of configuration file \"%s\"",
+                                     line_num, HbaFileName)));
                    pfree(token);
                    return false;
                }
index 3232e64d4ad8fc61c79b9d53ec5f90a2150b001d..b83a2efb6989383552166bd6ddfa95ae046f809d 100644 (file)
@@ -85,7 +85,7 @@
 #ifdef HAVE_UTIME_H
 #include <utime.h>
 #endif
-#ifdef WIN32_ONLY_COMPILER /* mstcpip.h is missing on mingw */
+#ifdef WIN32_ONLY_COMPILER     /* mstcpip.h is missing on mingw */
 #include <mstcpip.h>
 #endif
 
@@ -745,7 +745,7 @@ TouchSocketFile(void)
  */
 
 /* --------------------------------
- *            pq_set_nonblocking - set socket blocking/non-blocking
+ *           pq_set_nonblocking - set socket blocking/non-blocking
  *
  * Sets the socket non-blocking if nonblocking is TRUE, or sets it
  * blocking otherwise.
@@ -760,16 +760,17 @@ pq_set_nonblocking(bool nonblocking)
 #ifdef WIN32
    pgwin32_noblock = nonblocking ? 1 : 0;
 #else
+
    /*
-    * Use COMMERROR on failure, because ERROR would try to send the error
-    * to the client, which might require changing the mode again, leading
-    * to infinite recursion.
+    * Use COMMERROR on failure, because ERROR would try to send the error to
+    * the client, which might require changing the mode again, leading to
+    * infinite recursion.
     */
    if (nonblocking)
    {
        if (!pg_set_noblock(MyProcPort->sock))
            ereport(COMMERROR,
-                   (errmsg("could not set socket to non-blocking mode: %m")));
+                 (errmsg("could not set socket to non-blocking mode: %m")));
    }
    else
    {
@@ -903,18 +904,17 @@ pq_getbyte_if_available(unsigned char *c)
    {
        /*
         * Ok if no data available without blocking or interrupted (though
-        * EINTR really shouldn't happen with a non-blocking socket).
-        * Report other errors.
+        * EINTR really shouldn't happen with a non-blocking socket). Report
+        * other errors.
         */
        if (errno == EAGAIN || errno == EWOULDBLOCK || errno == EINTR)
            r = 0;
        else
        {
            /*
-            * Careful: an ereport() that tries to write to the client
-            * would cause recursion to here, leading to stack overflow
-            * and core dump!  This message must go *only* to the
-            * postmaster log.
+            * Careful: an ereport() that tries to write to the client would
+            * cause recursion to here, leading to stack overflow and core
+            * dump!  This message must go *only* to the postmaster log.
             */
            ereport(COMMERROR,
                    (errcode_for_socket_access(),
@@ -1219,8 +1219,8 @@ internal_flush(void)
                continue;       /* Ok if we were interrupted */
 
            /*
-            * Ok if no data writable without blocking, and the socket
-            * is in non-blocking mode.
+            * Ok if no data writable without blocking, and the socket is in
+            * non-blocking mode.
             */
            if (errno == EAGAIN ||
                errno == EWOULDBLOCK)
@@ -1369,8 +1369,8 @@ fail:
 void
 pq_putmessage_noblock(char msgtype, const char *s, size_t len)
 {
-   int res;
-   int required;
+   int         res;
+   int         required;
 
    /*
     * Ensure we have enough space in the output buffer for the message header
@@ -1383,7 +1383,8 @@ pq_putmessage_noblock(char msgtype, const char *s, size_t len)
        PqSendBufferSize = required;
    }
    res = pq_putmessage(msgtype, s, len);
-   Assert(res == 0);   /* should not fail when the message fits in buffer */
+   Assert(res == 0);           /* should not fail when the message fits in
+                                * buffer */
 }
 
 
@@ -1434,13 +1435,13 @@ pq_endcopyout(bool errorAbort)
 static int
 pq_setkeepaliveswin32(Port *port, int idle, int interval)
 {
-   struct tcp_keepalive    ka;
-   DWORD                   retsize;
+   struct tcp_keepalive ka;
+   DWORD       retsize;
 
    if (idle <= 0)
-       idle = 2 * 60 * 60; /* default = 2 hours */
+       idle = 2 * 60 * 60;     /* default = 2 hours */
    if (interval <= 0)
-       interval = 1;       /* default = 1 second */
+       interval = 1;           /* default = 1 second */
 
    ka.onoff = 1;
    ka.keepalivetime = idle * 1000;
@@ -1500,11 +1501,11 @@ pq_getkeepalivesidle(Port *port)
            elog(LOG, "getsockopt(TCP_KEEPALIVE) failed: %m");
            port->default_keepalives_idle = -1; /* don't know */
        }
-#endif /* TCP_KEEPIDLE */
-#else /* WIN32 */
+#endif   /* TCP_KEEPIDLE */
+#else                          /* WIN32 */
        /* We can't get the defaults on Windows, so return "don't know" */
        port->default_keepalives_idle = -1;
-#endif /* WIN32 */
+#endif   /* WIN32 */
    }
 
    return port->default_keepalives_idle;
@@ -1555,10 +1556,10 @@ pq_setkeepalivesidle(int idle, Port *port)
 #endif
 
    port->keepalives_idle = idle;
-#else /* WIN32 */
+#else                          /* WIN32 */
    return pq_setkeepaliveswin32(port, idle, port->keepalives_interval);
 #endif
-#else /* TCP_KEEPIDLE || SIO_KEEPALIVE_VALS */
+#else                          /* TCP_KEEPIDLE || SIO_KEEPALIVE_VALS */
    if (idle != 0)
    {
        elog(LOG, "setting the keepalive idle time is not supported");
@@ -1593,7 +1594,7 @@ pq_getkeepalivesinterval(Port *port)
 #else
        /* We can't get the defaults on Windows, so return "don't know" */
        port->default_keepalives_interval = -1;
-#endif /* WIN32 */
+#endif   /* WIN32 */
    }
 
    return port->default_keepalives_interval;
@@ -1635,7 +1636,7 @@ pq_setkeepalivesinterval(int interval, Port *port)
    }
 
    port->keepalives_interval = interval;
-#else /* WIN32 */
+#else                          /* WIN32 */
    return pq_setkeepaliveswin32(port, port->keepalives_idle, interval);
 #endif
 #else
index 43d182b4dba751f5229049bbb7900afa1b9620a3..c4ef56dc6c6584709c53c8a63127ff10315c7223 100644 (file)
@@ -204,7 +204,7 @@ main(int argc, char *argv[])
 /*
  * Place platform-specific startup hacks here. This is the right
  * place to put code that must be executed early in the launch of any new
- * server process.  Note that this code will NOT be executed when a backend
+ * server process. Note that this code will NOT be executed when a backend
  * or sub-bootstrap process is forked, unless we are in a fork/exec
  * environment (ie EXEC_BACKEND is defined).
  *
@@ -218,8 +218,8 @@ startup_hacks(const char *progname)
    /*
     * On some platforms, unaligned memory accesses result in a kernel trap;
     * the default kernel behavior is to emulate the memory access, but this
-    * results in a significant performance penalty.  We want PG never to
-    * make such unaligned memory accesses, so this code disables the kernel
+    * results in a significant performance penalty.  We want PG never to make
+    * such unaligned memory accesses, so this code disables the kernel
     * emulation: unaligned accesses will result in SIGBUS instead.
     */
 #ifdef NOFIXADE
@@ -230,7 +230,7 @@ startup_hacks(const char *progname)
 
 #if defined(__alpha)           /* no __alpha__ ? */
    {
-       int     buffer[] = {SSIN_UACPROC, UAC_SIGBUS | UAC_NOPRINT};
+       int         buffer[] = {SSIN_UACPROC, UAC_SIGBUS | UAC_NOPRINT};
 
        if (setsysinfo(SSI_NVPAIRS, buffer, 1, (caddr_t) NULL,
                       (unsigned long) NULL) < 0)
@@ -238,7 +238,6 @@ startup_hacks(const char *progname)
                         progname, strerror(errno));
    }
 #endif   /* __alpha */
-
 #endif   /* NOFIXADE */
 
    /*
index 0eac9826a4e5f2e7184bf73ee7944b6ebd37c714..c0d2294317e50d829c7666a4cf259d5289fd15cb 100644 (file)
@@ -581,7 +581,7 @@ _copyForeignScan(ForeignScan *from)
 static FdwPlan *
 _copyFdwPlan(FdwPlan *from)
 {
-   FdwPlan *newnode = makeNode(FdwPlan);
+   FdwPlan    *newnode = makeNode(FdwPlan);
 
    COPY_SCALAR_FIELD(startup_cost);
    COPY_SCALAR_FIELD(total_cost);
@@ -1468,7 +1468,7 @@ _copyConvertRowtypeExpr(ConvertRowtypeExpr *from)
 static CollateExpr *
 _copyCollateExpr(CollateExpr *from)
 {
-   CollateExpr   *newnode = makeNode(CollateExpr);
+   CollateExpr *newnode = makeNode(CollateExpr);
 
    COPY_NODE_FIELD(arg);
    COPY_SCALAR_FIELD(collOid);
@@ -2269,7 +2269,7 @@ _copyTypeCast(TypeCast *from)
 static CollateClause *
 _copyCollateClause(CollateClause *from)
 {
-   CollateClause   *newnode = makeNode(CollateClause);
+   CollateClause *newnode = makeNode(CollateClause);
 
    COPY_NODE_FIELD(arg);
    COPY_NODE_FIELD(collname);
index af1ccb7efec64b5207c37238ce07937d32ae4f77..0e57f6c6d7d68eb8667b81cb860028aa69c391b1 100644 (file)
@@ -675,10 +675,10 @@ exprCollation(Node *expr)
            coll = ((NullIfExpr *) expr)->opcollid;
            break;
        case T_ScalarArrayOpExpr:
-           coll = InvalidOid;              /* result is always boolean */
+           coll = InvalidOid;  /* result is always boolean */
            break;
        case T_BoolExpr:
-           coll = InvalidOid;              /* result is always boolean */
+           coll = InvalidOid;  /* result is always boolean */
            break;
        case T_SubLink:
            {
@@ -736,7 +736,7 @@ exprCollation(Node *expr)
            coll = ((FieldSelect *) expr)->resultcollid;
            break;
        case T_FieldStore:
-           coll = InvalidOid;              /* result is always composite */
+           coll = InvalidOid;  /* result is always composite */
            break;
        case T_RelabelType:
            coll = ((RelabelType *) expr)->resultcollid;
@@ -748,7 +748,7 @@ exprCollation(Node *expr)
            coll = ((ArrayCoerceExpr *) expr)->resultcollid;
            break;
        case T_ConvertRowtypeExpr:
-           coll = InvalidOid;              /* result is always composite */
+           coll = InvalidOid;  /* result is always composite */
            break;
        case T_CollateExpr:
            coll = ((CollateExpr *) expr)->collOid;
@@ -763,10 +763,10 @@ exprCollation(Node *expr)
            coll = ((ArrayExpr *) expr)->array_collid;
            break;
        case T_RowExpr:
-           coll = InvalidOid;              /* result is always composite */
+           coll = InvalidOid;  /* result is always composite */
            break;
        case T_RowCompareExpr:
-           coll = InvalidOid;              /* result is always boolean */
+           coll = InvalidOid;  /* result is always boolean */
            break;
        case T_CoalesceExpr:
            coll = ((CoalesceExpr *) expr)->coalescecollid;
@@ -775,10 +775,11 @@ exprCollation(Node *expr)
            coll = ((MinMaxExpr *) expr)->minmaxcollid;
            break;
        case T_XmlExpr:
+
            /*
             * XMLSERIALIZE returns text from non-collatable inputs, so its
-            * collation is always default.  The other cases return boolean
-            * or XML, which are non-collatable.
+            * collation is always default.  The other cases return boolean or
+            * XML, which are non-collatable.
             */
            if (((XmlExpr *) expr)->op == IS_XMLSERIALIZE)
                coll = DEFAULT_COLLATION_OID;
@@ -786,10 +787,10 @@ exprCollation(Node *expr)
                coll = InvalidOid;
            break;
        case T_NullTest:
-           coll = InvalidOid;              /* result is always boolean */
+           coll = InvalidOid;  /* result is always boolean */
            break;
        case T_BooleanTest:
-           coll = InvalidOid;              /* result is always boolean */
+           coll = InvalidOid;  /* result is always boolean */
            break;
        case T_CoerceToDomain:
            coll = ((CoerceToDomain *) expr)->resultcollid;
@@ -801,7 +802,7 @@ exprCollation(Node *expr)
            coll = ((SetToDefault *) expr)->collation;
            break;
        case T_CurrentOfExpr:
-           coll = InvalidOid;              /* result is always boolean */
+           coll = InvalidOid;  /* result is always boolean */
            break;
        case T_PlaceHolderVar:
            coll = exprCollation((Node *) ((PlaceHolderVar *) expr)->phexpr);
@@ -907,10 +908,10 @@ exprSetCollation(Node *expr, Oid collation)
            ((NullIfExpr *) expr)->opcollid = collation;
            break;
        case T_ScalarArrayOpExpr:
-           Assert(!OidIsValid(collation)); /* result is always boolean */
+           Assert(!OidIsValid(collation));     /* result is always boolean */
            break;
        case T_BoolExpr:
-           Assert(!OidIsValid(collation)); /* result is always boolean */
+           Assert(!OidIsValid(collation));     /* result is always boolean */
            break;
        case T_SubLink:
 #ifdef USE_ASSERT_CHECKING
@@ -937,13 +938,13 @@ exprSetCollation(Node *expr, Oid collation)
                    Assert(!OidIsValid(collation));
                }
            }
-#endif /* USE_ASSERT_CHECKING */
+#endif   /* USE_ASSERT_CHECKING */
            break;
        case T_FieldSelect:
            ((FieldSelect *) expr)->resultcollid = collation;
            break;
        case T_FieldStore:
-           Assert(!OidIsValid(collation)); /* result is always composite */
+           Assert(!OidIsValid(collation));     /* result is always composite */
            break;
        case T_RelabelType:
            ((RelabelType *) expr)->resultcollid = collation;
@@ -955,7 +956,7 @@ exprSetCollation(Node *expr, Oid collation)
            ((ArrayCoerceExpr *) expr)->resultcollid = collation;
            break;
        case T_ConvertRowtypeExpr:
-           Assert(!OidIsValid(collation)); /* result is always composite */
+           Assert(!OidIsValid(collation));     /* result is always composite */
            break;
        case T_CaseExpr:
            ((CaseExpr *) expr)->casecollid = collation;
@@ -964,10 +965,10 @@ exprSetCollation(Node *expr, Oid collation)
            ((ArrayExpr *) expr)->array_collid = collation;
            break;
        case T_RowExpr:
-           Assert(!OidIsValid(collation)); /* result is always composite */
+           Assert(!OidIsValid(collation));     /* result is always composite */
            break;
        case T_RowCompareExpr:
-           Assert(!OidIsValid(collation)); /* result is always boolean */
+           Assert(!OidIsValid(collation));     /* result is always boolean */
            break;
        case T_CoalesceExpr:
            ((CoalesceExpr *) expr)->coalescecollid = collation;
@@ -981,10 +982,10 @@ exprSetCollation(Node *expr, Oid collation)
                   (collation == InvalidOid));
            break;
        case T_NullTest:
-           Assert(!OidIsValid(collation)); /* result is always boolean */
+           Assert(!OidIsValid(collation));     /* result is always boolean */
            break;
        case T_BooleanTest:
-           Assert(!OidIsValid(collation)); /* result is always boolean */
+           Assert(!OidIsValid(collation));     /* result is always boolean */
            break;
        case T_CoerceToDomain:
            ((CoerceToDomain *) expr)->resultcollid = collation;
@@ -996,7 +997,7 @@ exprSetCollation(Node *expr, Oid collation)
            ((SetToDefault *) expr)->collation = collation;
            break;
        case T_CurrentOfExpr:
-           Assert(!OidIsValid(collation)); /* result is always boolean */
+           Assert(!OidIsValid(collation));     /* result is always boolean */
            break;
        default:
            elog(ERROR, "unrecognized node type: %d", (int) nodeTag(expr));
index d6e6e6a2bda4152c75f947d8916398de2219e6be..62d766a2827c486d4ddda960f6ca285c986495a7 100644 (file)
@@ -43,7 +43,7 @@ copyParamList(ParamListInfo from)
 
    /* sizeof(ParamListInfoData) includes the first array element */
    size = sizeof(ParamListInfoData) +
-       (from->numParams - 1) *sizeof(ParamExternData);
+       (from->numParams - 1) * sizeof(ParamExternData);
 
    retval = (ParamListInfo) palloc(size);
    retval->paramFetch = NULL;
index dc2a23bb2737313b43e1e6d7b272119863693cbc..47ab08e502e63971cbcca7a44b780ec37784d2a7 100644 (file)
@@ -66,7 +66,7 @@ static void set_cte_pathlist(PlannerInfo *root, RelOptInfo *rel,
 static void set_worktable_pathlist(PlannerInfo *root, RelOptInfo *rel,
                       RangeTblEntry *rte);
 static void set_foreign_pathlist(PlannerInfo *root, RelOptInfo *rel,
-                      RangeTblEntry *rte);
+                    RangeTblEntry *rte);
 static RelOptInfo *make_rel_from_joinlist(PlannerInfo *root, List *joinlist);
 static bool subquery_is_pushdown_safe(Query *subquery, Query *topquery,
                          bool *differentTypes);
@@ -413,11 +413,11 @@ set_append_rel_pathlist(PlannerInfo *root, RelOptInfo *rel,
 
        /*
         * We have to make child entries in the EquivalenceClass data
-        * structures as well.  This is needed either if the parent
-        * participates in some eclass joins (because we will want to
-        * consider inner-indexscan joins on the individual children)
-        * or if the parent has useful pathkeys (because we should try
-        * to build MergeAppend paths that produce those sort orderings).
+        * structures as well.  This is needed either if the parent
+        * participates in some eclass joins (because we will want to consider
+        * inner-indexscan joins on the individual children) or if the parent
+        * has useful pathkeys (because we should try to build MergeAppend
+        * paths that produce those sort orderings).
         */
        if (rel->has_eclass_joins || has_useful_pathkeys(root, rel))
            add_child_rel_equivalences(root, appinfo, rel, childrel);
@@ -462,7 +462,7 @@ set_append_rel_pathlist(PlannerInfo *root, RelOptInfo *rel,
            /* Have we already seen this ordering? */
            foreach(lpk, all_child_pathkeys)
            {
-               List   *existing_pathkeys = (List *) lfirst(lpk);
+               List       *existing_pathkeys = (List *) lfirst(lpk);
 
                if (compare_pathkeys(existing_pathkeys,
                                     childkeys) == PATHKEYS_EQUAL)
@@ -540,18 +540,18 @@ set_append_rel_pathlist(PlannerInfo *root, RelOptInfo *rel,
 
    /*
     * Next, build MergeAppend paths based on the collected list of child
-    * pathkeys.  We consider both cheapest-startup and cheapest-total
-    * cases, ie, for each interesting ordering, collect all the cheapest
-    * startup subpaths and all the cheapest total paths, and build a
-    * MergeAppend path for each list.
+    * pathkeys.  We consider both cheapest-startup and cheapest-total cases,
+    * ie, for each interesting ordering, collect all the cheapest startup
+    * subpaths and all the cheapest total paths, and build a MergeAppend path
+    * for each list.
     */
    foreach(l, all_child_pathkeys)
    {
-       List   *pathkeys = (List *) lfirst(l);
-       List   *startup_subpaths = NIL;
-       List   *total_subpaths = NIL;
-       bool    startup_neq_total = false;
-       ListCell *lcr;
+       List       *pathkeys = (List *) lfirst(l);
+       List       *startup_subpaths = NIL;
+       List       *total_subpaths = NIL;
+       bool        startup_neq_total = false;
+       ListCell   *lcr;
 
        /* Select the child paths for this ordering... */
        foreach(lcr, live_childrels)
@@ -581,8 +581,8 @@ set_append_rel_pathlist(PlannerInfo *root, RelOptInfo *rel,
 
            /*
             * Notice whether we actually have different paths for the
-            * "cheapest" and "total" cases; frequently there will be no
-            * point in two create_merge_append_path() calls.
+            * "cheapest" and "total" cases; frequently there will be no point
+            * in two create_merge_append_path() calls.
             */
            if (cheapest_startup != cheapest_total)
                startup_neq_total = true;
@@ -623,7 +623,7 @@ accumulate_append_subpath(List *subpaths, Path *path)
 {
    if (IsA(path, AppendPath))
    {
-       AppendPath  *apath = (AppendPath *) path;
+       AppendPath *apath = (AppendPath *) path;
 
        /* list_copy is important here to avoid sharing list substructure */
        return list_concat(subpaths, list_copy(apath->subpaths));
index 8f763b436956fa2641aa04ee62b924f9bac706a7..e200dcf4728c3d9a9b57c53689abd1e5c9a6bba4 100644 (file)
@@ -1096,7 +1096,7 @@ cost_recursive_union(Plan *runion, Plan *nrterm, Plan *rterm)
  * accesses (XXX can't we refine that guess?)
  *
  * By default, we charge two operator evals per tuple comparison, which should
- * be in the right ballpark in most cases.  The caller can tweak this by
+ * be in the right ballpark in most cases. The caller can tweak this by
  * specifying nonzero comparison_cost; typically that's used for any extra
  * work that has to be done to prepare the inputs to the comparison operators.
  *
@@ -1218,7 +1218,7 @@ cost_sort(Path *path, PlannerInfo *root,
  *   Determines and returns the cost of a MergeAppend node.
  *
  * MergeAppend merges several pre-sorted input streams, using a heap that
- * at any given instant holds the next tuple from each stream.  If there
+ * at any given instant holds the next tuple from each stream. If there
  * are N streams, we need about N*log2(N) tuple comparisons to construct
  * the heap at startup, and then for each output tuple, about log2(N)
  * comparisons to delete the top heap entry and another log2(N) comparisons
@@ -2909,7 +2909,7 @@ adjust_semi_join(PlannerInfo *root, JoinPath *path, SpecialJoinInfo *sjinfo,
            List       *nrclauses;
 
            nrclauses = select_nonredundant_join_clauses(root,
-                                                        path->joinrestrictinfo,
+                                                     path->joinrestrictinfo,
                                                         path->innerjoinpath);
            *indexed_join_quals = (nrclauses == NIL);
        }
@@ -3185,7 +3185,7 @@ set_subquery_size_estimates(PlannerInfo *root, RelOptInfo *rel,
 
    /*
     * Compute per-output-column width estimates by examining the subquery's
-    * targetlist.  For any output that is a plain Var, get the width estimate
+    * targetlist.  For any output that is a plain Var, get the width estimate
     * that was made while planning the subquery.  Otherwise, fall back on a
     * datatype-based estimate.
     */
@@ -3210,7 +3210,7 @@ set_subquery_size_estimates(PlannerInfo *root, RelOptInfo *rel,
        if (IsA(texpr, Var) &&
            subroot->parse->setOperations == NULL)
        {
-           Var    *var = (Var *) texpr;
+           Var        *var = (Var *) texpr;
            RelOptInfo *subrel = find_base_rel(subroot, var->varno);
 
            item_width = subrel->attr_widths[var->varattno - subrel->min_attr];
@@ -3332,7 +3332,7 @@ set_cte_size_estimates(PlannerInfo *root, RelOptInfo *rel, Plan *cteplan)
  * of estimating baserestrictcost, so we set that, and we also set up width
  * using what will be purely datatype-driven estimates from the targetlist.
  * There is no way to do anything sane with the rows value, so we just put
- * a default estimate and hope that the wrapper can improve on it.  The
+ * a default estimate and hope that the wrapper can improve on it. The
  * wrapper's PlanForeignScan function will be called momentarily.
  *
  * The rel's targetlist and restrictinfo list must have been constructed
@@ -3396,8 +3396,8 @@ set_rel_width(PlannerInfo *root, RelOptInfo *rel)
            ndx = var->varattno - rel->min_attr;
 
            /*
-            * If it's a whole-row Var, we'll deal with it below after we
-            * have already cached as many attr widths as possible.
+            * If it's a whole-row Var, we'll deal with it below after we have
+            * already cached as many attr widths as possible.
             */
            if (var->varattno == 0)
            {
@@ -3406,8 +3406,8 @@ set_rel_width(PlannerInfo *root, RelOptInfo *rel)
            }
 
            /*
-            * The width may have been cached already (especially if it's
-            * subquery), so don't duplicate effort.
+            * The width may have been cached already (especially if it's a
+            * subquery), so don't duplicate effort.
             */
            if (rel->attr_widths[ndx] > 0)
            {
@@ -3464,13 +3464,13 @@ set_rel_width(PlannerInfo *root, RelOptInfo *rel)
     */
    if (have_wholerow_var)
    {
-       int32   wholerow_width = sizeof(HeapTupleHeaderData);
+       int32       wholerow_width = sizeof(HeapTupleHeaderData);
 
        if (reloid != InvalidOid)
        {
            /* Real relation, so estimate true tuple width */
            wholerow_width += get_relation_data_width(reloid,
-                                                     rel->attr_widths - rel->min_attr);
+                                          rel->attr_widths - rel->min_attr);
        }
        else
        {
@@ -3484,8 +3484,8 @@ set_rel_width(PlannerInfo *root, RelOptInfo *rel)
        rel->attr_widths[0 - rel->min_attr] = wholerow_width;
 
        /*
-        * Include the whole-row Var as part of the output tuple.  Yes,
-        * that really is what happens at runtime.
+        * Include the whole-row Var as part of the output tuple.  Yes, that
+        * really is what happens at runtime.
         */
        tuple_width += wholerow_width;
    }
index 9a32e16940b19bd38de19e9c1ab0f690b4a683c5..a365beecd8a348623968b2ad080954699af2c8a3 100644 (file)
@@ -385,7 +385,7 @@ process_equivalence(PlannerInfo *root, RestrictInfo *restrictinfo,
  * Also, the expression's exposed collation must match the EC's collation.
  * This is important because in comparisons like "foo < bar COLLATE baz",
  * only one of the expressions has the correct exposed collation as we receive
- * it from the parser.  Forcing both of them to have it ensures that all
+ * it from the parser. Forcing both of them to have it ensures that all
  * variant spellings of such a construct behave the same.  Again, we can
  * stick on a RelabelType to force the right exposed collation.  (It might
  * work to not label the collation at all in EC members, but this is risky
@@ -414,13 +414,13 @@ canonicalize_ec_expression(Expr *expr, Oid req_type, Oid req_collation)
        exprCollation((Node *) expr) != req_collation)
    {
        /*
-        * Strip any existing RelabelType, then add a new one if needed.
-        * This is to preserve the invariant of no redundant RelabelTypes.
+        * Strip any existing RelabelType, then add a new one if needed. This
+        * is to preserve the invariant of no redundant RelabelTypes.
         *
         * If we have to change the exposed type of the stripped expression,
         * set typmod to -1 (since the new type may not have the same typmod
-        * interpretation).  If we only have to change collation, preserve
-        * the exposed typmod.
+        * interpretation).  If we only have to change collation, preserve the
+        * exposed typmod.
         */
        while (expr && IsA(expr, RelabelType))
            expr = (Expr *) ((RelabelType *) expr)->arg;
@@ -1784,8 +1784,8 @@ add_child_rel_equivalences(PlannerInfo *root,
        ListCell   *lc2;
 
        /*
-        * If this EC contains a constant, then it's not useful for sorting
-        * or driving an inner index-scan, so we skip generating child EMs.
+        * If this EC contains a constant, then it's not useful for sorting or
+        * driving an inner index-scan, so we skip generating child EMs.
         *
         * If this EC contains a volatile expression, then generating child
         * EMs would be downright dangerous.  We rely on a volatile EC having
index 76f842631fa510dbc2c28d805c7974e6a8ffc3e5..ef65cf222442e4a920f1947f54aaff4838062548 100644 (file)
@@ -119,7 +119,7 @@ static bool match_special_index_operator(Expr *clause,
 static Expr *expand_boolean_index_clause(Node *clause, int indexcol,
                            IndexOptInfo *index);
 static List *expand_indexqual_opclause(RestrictInfo *rinfo,
-                                      Oid opfamily, Oid idxcollation);
+                         Oid opfamily, Oid idxcollation);
 static RestrictInfo *expand_indexqual_rowcompare(RestrictInfo *rinfo,
                            IndexOptInfo *index,
                            int indexcol);
@@ -1159,8 +1159,8 @@ group_clauses_by_indexkey(IndexOptInfo *index,
  *   (2)  must contain an operator which is in the same family as the index
  *        operator for this column, or is a "special" operator as recognized
  *        by match_special_index_operator();
- *         and
- *    (3)  must match the collation of the index, if collation is relevant.
+ *        and
+ *   (3)  must match the collation of the index, if collation is relevant.
  *
  *   Our definition of "const" is pretty liberal: we allow Vars belonging
  *   to the caller-specified outer_relids relations (which had better not
@@ -1312,7 +1312,7 @@ match_clause_to_indexcol(IndexOptInfo *index,
         * is a "special" indexable operator.
         */
        if (plain_op &&
-           match_special_index_operator(clause, opfamily, idxcollation, true))
+         match_special_index_operator(clause, opfamily, idxcollation, true))
            return true;
        return false;
    }
@@ -1438,7 +1438,7 @@ match_rowcompare_to_indexcol(IndexOptInfo *index,
 
 
 /****************************************************************************
- *             ----  ROUTINES TO CHECK ORDERING OPERATORS  ----
+ *             ----  ROUTINES TO CHECK ORDERING OPERATORS  ----
  ****************************************************************************/
 
 /*
@@ -1461,7 +1461,7 @@ match_index_to_pathkeys(IndexOptInfo *index, List *pathkeys)
 
    foreach(lc1, pathkeys)
    {
-       PathKey    *pathkey = (PathKey *) lfirst(lc1);
+       PathKey    *pathkey = (PathKey *) lfirst(lc1);
        bool        found = false;
        ListCell   *lc2;
 
@@ -1483,7 +1483,7 @@ match_index_to_pathkeys(IndexOptInfo *index, List *pathkeys)
        foreach(lc2, pathkey->pk_eclass->ec_members)
        {
            EquivalenceMember *member = (EquivalenceMember *) lfirst(lc2);
-           int     indexcol;
+           int         indexcol;
 
            /* No possibility of match if it references other relations */
            if (!bms_equal(member->em_relids, index->rel->relids))
@@ -1491,7 +1491,7 @@ match_index_to_pathkeys(IndexOptInfo *index, List *pathkeys)
 
            for (indexcol = 0; indexcol < index->ncolumns; indexcol++)
            {
-               Expr   *expr;
+               Expr       *expr;
 
                expr = match_clause_to_ordering_op(index,
                                                   indexcol,
@@ -1535,7 +1535,7 @@ match_index_to_pathkeys(IndexOptInfo *index, List *pathkeys)
  * Note that we currently do not consider the collation of the ordering
  * operator's result.  In practical cases the result type will be numeric
  * and thus have no collation, and it's not very clear what to match to
- * if it did have a collation.  The index's collation should match the
+ * if it did have a collation. The index's collation should match the
  * ordering operator's input collation, not its result.
  *
  * If successful, return 'clause' as-is if the indexkey is on the left,
@@ -1598,8 +1598,8 @@ match_clause_to_ordering_op(IndexOptInfo *index,
        return NULL;
 
    /*
-    * Is the (commuted) operator an ordering operator for the opfamily?
-    * And if so, does it yield the right sorting semantics?
+    * Is the (commuted) operator an ordering operator for the opfamily? And
+    * if so, does it yield the right sorting semantics?
     */
    sortfamily = get_op_opfamily_sortfamily(expr_op, opfamily);
    if (sortfamily != pk_opfamily)
@@ -2198,9 +2198,9 @@ relation_has_unique_index_for(PlannerInfo *root, RelOptInfo *rel,
                    continue;
 
                /*
-                * XXX at some point we may need to check collations here
-                * too.  For the moment we assume all collations reduce to
-                * the same notion of equality.
+                * XXX at some point we may need to check collations here too.
+                * For the moment we assume all collations reduce to the same
+                * notion of equality.
                 */
 
                /* OK, see if the condition operand matches the index key */
@@ -2544,10 +2544,10 @@ match_special_index_operator(Expr *clause, Oid opfamily, Oid idxcollation,
     *
     * The non-pattern opclasses will not sort the way we need in most non-C
     * locales.  We can use such an index anyway for an exact match (simple
-    * equality), but not for prefix-match cases.  Note that we are looking
-    * at the index's collation, not the expression's collation -- this test
-    * is not dependent on the LIKE/regex operator's collation (which would
-    * only affect case folding behavior of ILIKE, anyway).
+    * equality), but not for prefix-match cases.  Note that we are looking at
+    * the index's collation, not the expression's collation -- this test is
+    * not dependent on the LIKE/regex operator's collation (which would only
+    * affect case folding behavior of ILIKE, anyway).
     */
    switch (expr_op)
    {
@@ -2657,7 +2657,7 @@ expand_indexqual_conditions(IndexOptInfo *index, List *clausegroups)
                resultquals = list_concat(resultquals,
                                          expand_indexqual_opclause(rinfo,
                                                                    curFamily,
-                                                                   curCollation));
+                                                             curCollation));
            }
            else if (IsA(clause, ScalarArrayOpExpr))
            {
@@ -3254,7 +3254,7 @@ network_prefix_quals(Node *leftop, Oid expr_op, Oid opfamily, Datum rightop)
    expr = make_opclause(opr1oid, BOOLOID, false,
                         (Expr *) leftop,
                         (Expr *) makeConst(datatype, -1,
-                                           InvalidOid, /* not collatable */
+                                           InvalidOid, /* not collatable */
                                            -1, opr1right,
                                            false, false),
                         InvalidOid, InvalidOid);
@@ -3272,7 +3272,7 @@ network_prefix_quals(Node *leftop, Oid expr_op, Oid opfamily, Datum rightop)
    expr = make_opclause(opr2oid, BOOLOID, false,
                         (Expr *) leftop,
                         (Expr *) makeConst(datatype, -1,
-                                           InvalidOid, /* not collatable */
+                                           InvalidOid, /* not collatable */
                                            -1, opr2right,
                                            false, false),
                         InvalidOid, InvalidOid);
index 740dc32dc78d8b4b233d5004c60fb4d4a269763a..7d3cf425da51bcbd45ec37cfe1eff7e00a6e4c4c 100644 (file)
@@ -97,11 +97,11 @@ add_paths_to_joinrel(PlannerInfo *root,
 
    /*
     * 1. Consider mergejoin paths where both relations must be explicitly
-    * sorted.  Skip this if we can't mergejoin.
+    * sorted.  Skip this if we can't mergejoin.
     */
    if (mergejoin_allowed)
        sort_inner_and_outer(root, joinrel, outerrel, innerrel,
-                            restrictlist, mergeclause_list, jointype, sjinfo);
+                          restrictlist, mergeclause_list, jointype, sjinfo);
 
    /*
     * 2. Consider paths where the outer relation need not be explicitly
@@ -112,7 +112,7 @@ add_paths_to_joinrel(PlannerInfo *root,
     */
    if (mergejoin_allowed)
        match_unsorted_outer(root, joinrel, outerrel, innerrel,
-                            restrictlist, mergeclause_list, jointype, sjinfo);
+                          restrictlist, mergeclause_list, jointype, sjinfo);
 
 #ifdef NOT_USED
 
@@ -129,7 +129,7 @@ add_paths_to_joinrel(PlannerInfo *root,
     */
    if (mergejoin_allowed)
        match_unsorted_inner(root, joinrel, outerrel, innerrel,
-                            restrictlist, mergeclause_list, jointype, sjinfo);
+                          restrictlist, mergeclause_list, jointype, sjinfo);
 #endif
 
    /*
index 42618649fb9614515a73b35766a6b568b26289ff..bbb79c582defe95c28091d2d70a1386d05e0a22a 100644 (file)
@@ -30,7 +30,7 @@ static bool has_legal_joinclause(PlannerInfo *root, RelOptInfo *rel);
 static bool is_dummy_rel(RelOptInfo *rel);
 static void mark_dummy_rel(RelOptInfo *rel);
 static bool restriction_is_constant_false(List *restrictlist,
-                                         bool only_pushed_down);
+                             bool only_pushed_down);
 
 
 /*
@@ -604,10 +604,10 @@ make_join_rel(PlannerInfo *root, RelOptInfo *rel1, RelOptInfo *rel2)
     *
     * Also, a provably constant-false join restriction typically means that
     * we can skip evaluating one or both sides of the join.  We do this by
-    * marking the appropriate rel as dummy.  For outer joins, a constant-false
-    * restriction that is pushed down still means the whole join is dummy,
-    * while a non-pushed-down one means that no inner rows will join so we
-    * can treat the inner rel as dummy.
+    * marking the appropriate rel as dummy.  For outer joins, a
+    * constant-false restriction that is pushed down still means the whole
+    * join is dummy, while a non-pushed-down one means that no inner rows
+    * will join so we can treat the inner rel as dummy.
     *
     * We need only consider the jointypes that appear in join_info_list, plus
     * JOIN_INNER.
index 47597a5d35b949ca4c0b3eb582d4c0aac2da6db8..e5228a81c63ac8885cbd3c2a5a609de33e73cc09 100644 (file)
@@ -253,7 +253,7 @@ make_pathkey_from_sortinfo(PlannerInfo *root,
    /*
     * EquivalenceClasses need to contain opfamily lists based on the family
     * membership of mergejoinable equality operators, which could belong to
-    * more than one opfamily.  So we have to look up the opfamily's equality
+    * more than one opfamily.  So we have to look up the opfamily's equality
     * operator and get its membership.
     */
    equality_op = get_opfamily_member(opfamily,
@@ -558,9 +558,9 @@ build_index_pathkeys(PlannerInfo *root,
                                              true);
 
        /*
-        * If the sort key isn't already present in any EquivalenceClass,
-        * then it's not an interesting sort order for this query.  So
-        * we can stop now --- lower-order sort keys aren't useful either.
+        * If the sort key isn't already present in any EquivalenceClass, then
+        * it's not an interesting sort order for this query.  So we can stop
+        * now --- lower-order sort keys aren't useful either.
         */
        if (!cpathkey)
            break;
@@ -747,8 +747,8 @@ convert_subquery_pathkeys(PlannerInfo *root, RelOptInfo *rel,
                        continue;
 
                    /*
-                    * Build a representation of this targetlist entry as
-                    * an outer Var.
+                    * Build a representation of this targetlist entry as an
+                    * outer Var.
                     */
                    outer_expr = (Expr *) makeVarFromTargetEntry(rel->relid,
                                                                 tle);
@@ -923,7 +923,7 @@ make_pathkeys_for_sortclauses(PlannerInfo *root,
  * right sides.
  *
  * Note this is called before EC merging is complete, so the links won't
- * necessarily point to canonical ECs.  Before they are actually used for
+ * necessarily point to canonical ECs. Before they are actually used for
  * anything, update_mergeclause_eclasses must be called to ensure that
  * they've been updated to point to canonical ECs.
  */
index 80d42f3be609b4338f9c08ee7b80f45b6054ff30..1784ac2fc5bd77f4ddafe4a17625ef8128a3280a 100644 (file)
@@ -31,7 +31,7 @@
 /* local functions */
 static bool join_is_removable(PlannerInfo *root, SpecialJoinInfo *sjinfo);
 static void remove_rel_from_query(PlannerInfo *root, int relid,
-                                 Relids joinrelids);
+                     Relids joinrelids);
 static List *remove_rel_from_joinlist(List *joinlist, int relid, int *nremoved);
 
 
@@ -238,10 +238,10 @@ join_is_removable(PlannerInfo *root, SpecialJoinInfo *sjinfo)
            !bms_equal(restrictinfo->required_relids, joinrelids))
        {
            /*
-            * If such a clause actually references the inner rel then
-            * join removal has to be disallowed.  We have to check this
-            * despite the previous attr_needed checks because of the
-            * possibility of pushed-down clauses referencing the rel.
+            * If such a clause actually references the inner rel then join
+            * removal has to be disallowed.  We have to check this despite
+            * the previous attr_needed checks because of the possibility of
+            * pushed-down clauses referencing the rel.
             */
            if (bms_is_member(innerrelid, restrictinfo->clause_relids))
                return false;
@@ -365,8 +365,8 @@ remove_rel_from_query(PlannerInfo *root, int relid, Relids joinrelids)
     * Likewise remove references from SpecialJoinInfo data structures.
     *
     * This is relevant in case the outer join we're deleting is nested inside
-    * other outer joins: the upper joins' relid sets have to be adjusted.
-    * The RHS of the target outer join will be made empty here, but that's OK
+    * other outer joins: the upper joins' relid sets have to be adjusted. The
+    * RHS of the target outer join will be made empty here, but that's OK
     * since caller will delete that SpecialJoinInfo entirely.
     */
    foreach(l, root->join_info_list)
@@ -426,6 +426,7 @@ remove_rel_from_query(PlannerInfo *root, int relid, Relids joinrelids)
        {
            /* Recheck that qual doesn't actually reference the target rel */
            Assert(!bms_is_member(relid, rinfo->clause_relids));
+
            /*
             * The required_relids probably aren't shared with anything else,
             * but let's copy them just to be sure.
index f1308812515a12416e6fc5b11abbe92e80d3e2e1..1a9540ce06802f913810ce0d81a1d5ffaaed9d72 100644 (file)
@@ -108,7 +108,7 @@ static TidScan *make_tidscan(List *qptlist, List *qpqual, Index scanrelid,
             List *tidquals);
 static FunctionScan *make_functionscan(List *qptlist, List *qpqual,
                  Index scanrelid, Node *funcexpr, List *funccolnames,
-                 List *funccoltypes, List *funccoltypmods, List *funccolcollations);
+         List *funccoltypes, List *funccoltypmods, List *funccolcollations);
 static ValuesScan *make_valuesscan(List *qptlist, List *qpqual,
                Index scanrelid, List *values_lists);
 static CteScan *make_ctescan(List *qptlist, List *qpqual,
@@ -143,24 +143,25 @@ static MergeJoin *make_mergejoin(List *tlist,
               bool *mergenullsfirst,
               Plan *lefttree, Plan *righttree,
               JoinType jointype);
-static Sort *make_sort(PlannerInfo *root, Plan *lefttree, int numCols,
-         AttrNumber *sortColIdx, Oid *sortOperators, Oid *collations, bool *nullsFirst,
+static Sort *
+make_sort(PlannerInfo *root, Plan *lefttree, int numCols,
+AttrNumber *sortColIdx, Oid *sortOperators, Oid *collations, bool *nullsFirst,
          double limit_tuples);
 static Plan *prepare_sort_from_pathkeys(PlannerInfo *root,
-                                       Plan *lefttree, List *pathkeys,
-                                       bool adjust_tlist_in_place,
-                                       int *p_numsortkeys,
-                                       AttrNumber **p_sortColIdx,
-                                       Oid **p_sortOperators,
-                                       Oid **p_collations,
-                                       bool **p_nullsFirst);
+                          Plan *lefttree, List *pathkeys,
+                          bool adjust_tlist_in_place,
+                          int *p_numsortkeys,
+                          AttrNumber **p_sortColIdx,
+                          Oid **p_sortOperators,
+                          Oid **p_collations,
+                          bool **p_nullsFirst);
 static Material *make_material(Plan *lefttree);
 
 
 /*
  * create_plan
  *   Creates the access plan for a query by recursively processing the
- *   desired tree of pathnodes, starting at the node 'best_path'.  For
+ *   desired tree of pathnodes, starting at the node 'best_path'.  For
  *   every pathnode found, we create a corresponding plan node containing
  *   appropriate id, target list, and qualification information.
  *
@@ -737,7 +738,7 @@ create_merge_append_plan(PlannerInfo *root, MergeAppendPath *best_path)
        /* Now, insert a Sort node if subplan isn't sufficiently ordered */
        if (!pathkeys_contained_in(pathkeys, subpath->pathkeys))
            subplan = (Plan *) make_sort(root, subplan, numsortkeys,
-                                        sortColIdx, sortOperators, collations, nullsFirst,
+                          sortColIdx, sortOperators, collations, nullsFirst,
                                         best_path->limit_tuples);
 
        subplans = lappend(subplans, subplan);
@@ -983,7 +984,7 @@ create_unique_plan(PlannerInfo *root, UniquePath *best_path)
            sortcl->eqop = eqop;
            sortcl->sortop = sortop;
            sortcl->nulls_first = false;
-           sortcl->hashable = false;       /* no need to make this accurate */
+           sortcl->hashable = false;   /* no need to make this accurate */
            sortList = lappend(sortList, sortcl);
            groupColPos++;
        }
@@ -1153,8 +1154,8 @@ create_indexscan_plan(PlannerInfo *root,
    qpqual = extract_actual_clauses(qpqual, false);
 
    /*
-    * We have to replace any outer-relation variables with nestloop params
-    * in the indexqualorig, qpqual, and indexorderbyorig expressions.  A bit
+    * We have to replace any outer-relation variables with nestloop params in
+    * the indexqualorig, qpqual, and indexorderbyorig expressions.  A bit
     * annoying to have to do this separately from the processing in
     * fix_indexqual_references --- rethink this when generalizing the inner
     * indexscan support.  But note we can't really do this earlier because
@@ -1465,6 +1466,7 @@ create_bitmap_subplan(PlannerInfo *root, Path *bitmapqual,
                *indexqual = lappend(*indexqual, pred);
            }
        }
+
        /*
         * Replace outer-relation variables with nestloop params, but only
         * after doing the above comparisons to index predicates.
@@ -2330,10 +2332,10 @@ replace_nestloop_params_mutator(Node *node, PlannerInfo *root)
        return NULL;
    if (IsA(node, Var))
    {
-       Var    *var = (Var *) node;
-       Param  *param;
+       Var        *var = (Var *) node;
+       Param      *param;
        NestLoopParam *nlp;
-       ListCell *lc;
+       ListCell   *lc;
 
        /* Upper-level Vars should be long gone at this point */
        Assert(var->varlevelsup == 0);
@@ -2493,7 +2495,7 @@ fix_indexqual_references(PlannerInfo *root, IndexPath *index_path,
  *
  * This is a simplified version of fix_indexqual_references.  The input does
  * not have RestrictInfo nodes, and we assume that indxqual.c already
- * commuted the clauses to put the index keys on the left.  Also, we don't
+ * commuted the clauses to put the index keys on the left. Also, we don't
  * bother to support any cases except simple OpExprs, since nothing else
  * is allowed for ordering operators.
  */
@@ -3082,8 +3084,8 @@ make_append(List *appendplans, List *tlist)
     * If you change this, see also create_append_path().  Also, the size
     * calculations should match set_append_rel_pathlist().  It'd be better
     * not to duplicate all this logic, but some callers of this function
-    * aren't working from an appendrel or AppendPath, so there's noplace
-    * to copy the data from.
+    * aren't working from an appendrel or AppendPath, so there's noplace to
+    * copy the data from.
     */
    plan->startup_cost = 0;
    plan->total_cost = 0;
@@ -3320,7 +3322,7 @@ make_mergejoin(List *tlist,
  */
 static Sort *
 make_sort(PlannerInfo *root, Plan *lefttree, int numCols,
-         AttrNumber *sortColIdx, Oid *sortOperators, Oid *collations, bool *nullsFirst,
+AttrNumber *sortColIdx, Oid *sortOperators, Oid *collations, bool *nullsFirst,
          double limit_tuples)
 {
    Sort       *node = makeNode(Sort);
@@ -3398,7 +3400,7 @@ add_sort_column(AttrNumber colIdx, Oid sortOp, Oid coll, bool nulls_first,
  * prepare_sort_from_pathkeys
  *   Prepare to sort according to given pathkeys
  *
- * This is used to set up for both Sort and MergeAppend nodes.  It calculates
+ * This is used to set up for both Sort and MergeAppend nodes. It calculates
  * the executor's representation of the sort key information, and adjusts the
  * plan targetlist if needed to add resjunk sort columns.
  *
@@ -3608,7 +3610,7 @@ prepare_sort_from_pathkeys(PlannerInfo *root, Plan *lefttree, List *pathkeys,
                                      pathkey->pk_eclass->ec_collation,
                                      pathkey->pk_nulls_first,
                                      numsortkeys,
-                                     sortColIdx, sortOperators, collations, nullsFirst);
+                         sortColIdx, sortOperators, collations, nullsFirst);
    }
 
    Assert(numsortkeys > 0);
@@ -3653,7 +3655,7 @@ make_sort_from_pathkeys(PlannerInfo *root, Plan *lefttree, List *pathkeys,
 
    /* Now build the Sort node */
    return make_sort(root, lefttree, numsortkeys,
-                    sortColIdx, sortOperators, collations, nullsFirst, limit_tuples);
+           sortColIdx, sortOperators, collations, nullsFirst, limit_tuples);
 }
 
 /*
@@ -3699,7 +3701,7 @@ make_sort_from_sortclauses(PlannerInfo *root, List *sortcls, Plan *lefttree)
                                      exprCollation((Node *) tle->expr),
                                      sortcl->nulls_first,
                                      numsortkeys,
-                                     sortColIdx, sortOperators, collations, nullsFirst);
+                         sortColIdx, sortOperators, collations, nullsFirst);
    }
 
    Assert(numsortkeys > 0);
@@ -3761,7 +3763,7 @@ make_sort_from_groupcols(PlannerInfo *root,
                                      exprCollation((Node *) tle->expr),
                                      grpcl->nulls_first,
                                      numsortkeys,
-                                     sortColIdx, sortOperators, collations, nullsFirst);
+                         sortColIdx, sortOperators, collations, nullsFirst);
        grpno++;
    }
 
index 0e00df64335d0d25d0752aca840d686d9f3fc1d4..333ede218ea40749e27cacb62e3290bb9b6fb2ed 100644 (file)
@@ -188,10 +188,11 @@ add_vars_to_targetlist(PlannerInfo *root, List *vars, Relids where_needed)
 
            phinfo->ph_needed = bms_add_members(phinfo->ph_needed,
                                                where_needed);
+
            /*
-            * Update ph_may_need too.  This is currently only necessary
-            * when being called from build_base_rel_tlists, but we may as
-            * well do it always.
+            * Update ph_may_need too.  This is currently only necessary when
+            * being called from build_base_rel_tlists, but we may as well do
+            * it always.
             */
            phinfo->ph_may_need = bms_add_members(phinfo->ph_may_need,
                                                  where_needed);
@@ -704,8 +705,8 @@ make_outerjoininfo(PlannerInfo *root,
     * this join's nullable side, and it may get used above this join, then
     * ensure that min_righthand contains the full eval_at set of the PHV.
     * This ensures that the PHV actually can be evaluated within the RHS.
-    * Note that this works only because we should already have determined
-    * the final eval_at level for any PHV syntactically within this join.
+    * Note that this works only because we should already have determined the
+    * final eval_at level for any PHV syntactically within this join.
     */
    foreach(l, root->placeholder_list)
    {
@@ -1070,7 +1071,7 @@ distribute_qual_to_rels(PlannerInfo *root, Node *clause,
     *
     * In all cases, it's important to initialize the left_ec and right_ec
     * fields of a mergejoinable clause, so that all possibly mergejoinable
-    * expressions have representations in EquivalenceClasses.  If
+    * expressions have representations in EquivalenceClasses.  If
     * process_equivalence is successful, it will take care of that;
     * otherwise, we have to call initialize_mergeclause_eclasses to do it.
     */
index f2ddf2a8442215a6dc8b5b0bee133604ddaa1aad..7fce92c2f1561b762e77511dd83f8550032aca21 100644 (file)
@@ -10,9 +10,9 @@
  *      ORDER BY col ASC/DESC
  *      LIMIT 1)
  * Given a suitable index on tab.col, this can be much faster than the
- * generic scan-all-the-rows aggregation plan.  We can handle multiple
+ * generic scan-all-the-rows aggregation plan. We can handle multiple
  * MIN/MAX aggregates by generating multiple subqueries, and their
- * orderings can be different.  However, if the query contains any
+ * orderings can be different. However, if the query contains any
  * non-optimizable aggregates, there's no point since we'll have to
  * scan all the rows anyway.
  *
@@ -87,10 +87,10 @@ preprocess_minmax_aggregates(PlannerInfo *root, List *tlist)
     *
     * We don't handle GROUP BY or windowing, because our current
     * implementations of grouping require looking at all the rows anyway, and
-    * so there's not much point in optimizing MIN/MAX.  (Note: relaxing
-    * this would likely require some restructuring in grouping_planner(),
-    * since it performs assorted processing related to these features between
-    * calling preprocess_minmax_aggregates and optimize_minmax_aggregates.)
+    * so there's not much point in optimizing MIN/MAX.  (Note: relaxing this
+    * would likely require some restructuring in grouping_planner(), since it
+    * performs assorted processing related to these features between calling
+    * preprocess_minmax_aggregates and optimize_minmax_aggregates.)
     */
    if (parse->groupClause || parse->hasWindowFuncs)
        return;
@@ -119,7 +119,7 @@ preprocess_minmax_aggregates(PlannerInfo *root, List *tlist)
 
    /*
     * Scan the tlist and HAVING qual to find all the aggregates and verify
-    * all are MIN/MAX aggregates.  Stop as soon as we find one that isn't.
+    * all are MIN/MAX aggregates.  Stop as soon as we find one that isn't.
     */
    aggs_list = NIL;
    if (find_minmax_aggs_walker((Node *) tlist, &aggs_list))
@@ -146,7 +146,7 @@ preprocess_minmax_aggregates(PlannerInfo *root, List *tlist)
         * ordering operator.
         */
        eqop = get_equality_op_for_ordering_op(mminfo->aggsortop, &reverse);
-       if (!OidIsValid(eqop))      /* shouldn't happen */
+       if (!OidIsValid(eqop))  /* shouldn't happen */
            elog(ERROR, "could not find equality operator for ordering operator %u",
                 mminfo->aggsortop);
 
@@ -154,7 +154,7 @@ preprocess_minmax_aggregates(PlannerInfo *root, List *tlist)
         * We can use either an ordering that gives NULLS FIRST or one that
         * gives NULLS LAST; furthermore there's unlikely to be much
         * performance difference between them, so it doesn't seem worth
-        * costing out both ways if we get a hit on the first one.  NULLS
+        * costing out both ways if we get a hit on the first one.  NULLS
         * FIRST is more likely to be available if the operator is a
         * reverse-sort operator, so try that first if reverse.
         */
@@ -169,8 +169,8 @@ preprocess_minmax_aggregates(PlannerInfo *root, List *tlist)
 
    /*
     * We're done until path generation is complete.  Save info for later.
-    * (Setting root->minmax_aggs non-NIL signals we succeeded in making
-    * index access paths for all the aggregates.)
+    * (Setting root->minmax_aggs non-NIL signals we succeeded in making index
+    * access paths for all the aggregates.)
     */
    root->minmax_aggs = aggs_list;
 }
@@ -333,7 +333,7 @@ find_minmax_aggs_walker(Node *node, List **context)
        mminfo->aggfnoid = aggref->aggfnoid;
        mminfo->aggsortop = aggsortop;
        mminfo->target = curTarget->expr;
-       mminfo->subroot = NULL;             /* don't compute path yet */
+       mminfo->subroot = NULL; /* don't compute path yet */
        mminfo->path = NULL;
        mminfo->pathcost = 0;
        mminfo->param = NULL;
@@ -424,7 +424,7 @@ build_minmax_path(PlannerInfo *root, MinMaxAggInfo *mminfo,
    sortcl->eqop = eqop;
    sortcl->sortop = sortop;
    sortcl->nulls_first = nulls_first;
-   sortcl->hashable = false;       /* no need to make this accurate */
+   sortcl->hashable = false;   /* no need to make this accurate */
    parse->sortClause = list_make1(sortcl);
 
    /* set up expressions for LIMIT 1 */
@@ -450,8 +450,8 @@ build_minmax_path(PlannerInfo *root, MinMaxAggInfo *mminfo,
    subroot->query_pathkeys = subroot->sort_pathkeys;
 
    /*
-    * Generate the best paths for this query, telling query_planner that
-    * we have LIMIT 1.
+    * Generate the best paths for this query, telling query_planner that we
+    * have LIMIT 1.
     */
    query_planner(subroot, parse->targetList, 1.0, 1.0,
                  &cheapest_path, &sorted_path, &dNumGroups);
@@ -527,11 +527,11 @@ make_agg_subplan(PlannerInfo *root, MinMaxAggInfo *mminfo)
                                   exprCollation((Node *) mminfo->target));
 
    /*
-    * Make sure the initplan gets into the outer PlannerInfo, along with
-    * any other initplans generated by the sub-planning run.  We had to
-    * include the outer PlannerInfo's pre-existing initplans into the
-    * inner one's init_plans list earlier, so make sure we don't put back
-    * any duplicate entries.
+    * Make sure the initplan gets into the outer PlannerInfo, along with any
+    * other initplans generated by the sub-planning run.  We had to include
+    * the outer PlannerInfo's pre-existing initplans into the inner one's
+    * init_plans list earlier, so make sure we don't put back any duplicate
+    * entries.
     */
    root->init_plans = list_concat_unique_ptr(root->init_plans,
                                              subroot->init_plans);
index 3dc23662e7152fb12b1098980b8f432c4efdff8e..ff39d5754dc989a087102523ca77adca79a89e17 100644 (file)
@@ -179,12 +179,12 @@ query_planner(PlannerInfo *root, List *tlist,
    /*
     * Examine the targetlist and join tree, adding entries to baserel
     * targetlists for all referenced Vars, and generating PlaceHolderInfo
-    * entries for all referenced PlaceHolderVars.  Restrict and join clauses
-    * are added to appropriate lists belonging to the mentioned relations.
-    * We also build EquivalenceClasses for provably equivalent expressions.
-    * The SpecialJoinInfo list is also built to hold information about join
-    * order restrictions.  Finally, we form a target joinlist for
-    * make_one_rel() to work from.
+    * entries for all referenced PlaceHolderVars.  Restrict and join clauses
+    * are added to appropriate lists belonging to the mentioned relations. We
+    * also build EquivalenceClasses for provably equivalent expressions. The
+    * SpecialJoinInfo list is also built to hold information about join order
+    * restrictions.  Finally, we form a target joinlist for make_one_rel() to
+    * work from.
     */
    build_base_rel_tlists(root, tlist);
 
@@ -216,7 +216,7 @@ query_planner(PlannerInfo *root, List *tlist,
    /*
     * Examine any "placeholder" expressions generated during subquery pullup.
     * Make sure that the Vars they need are marked as needed at the relevant
-    * join level.  This must be done before join removal because it might
+    * join level.  This must be done before join removal because it might
     * cause Vars or placeholders to be needed above a join when they weren't
     * so marked before.
     */
index 56d25abc6d747465be54140852bcc6b0746fd04e..58a5bf8eceb464e01fcca3a2711e2d12f5528132 100644 (file)
@@ -345,16 +345,16 @@ subquery_planner(PlannerGlobal *glob, Query *parse,
    inline_set_returning_functions(root);
 
    /*
-    * Check to see if any subqueries in the jointree can be merged into
-    * this query.
+    * Check to see if any subqueries in the jointree can be merged into this
+    * query.
     */
    parse->jointree = (FromExpr *)
        pull_up_subqueries(root, (Node *) parse->jointree, NULL, NULL);
 
    /*
-    * If this is a simple UNION ALL query, flatten it into an appendrel.
-    * We do this now because it requires applying pull_up_subqueries to the
-    * leaf queries of the UNION ALL, which weren't touched above because they
+    * If this is a simple UNION ALL query, flatten it into an appendrel. We
+    * do this now because it requires applying pull_up_subqueries to the leaf
+    * queries of the UNION ALL, which weren't touched above because they
     * weren't referenced by the jointree (they will be after we do this).
     */
    if (parse->setOperations)
@@ -575,7 +575,7 @@ subquery_planner(PlannerGlobal *glob, Query *parse,
 
            plan = (Plan *) make_modifytable(parse->commandType,
                                             parse->canSetTag,
-                                            list_make1_int(parse->resultRelation),
+                                      list_make1_int(parse->resultRelation),
                                             list_make1(plan),
                                             returningLists,
                                             rowMarks,
@@ -3116,9 +3116,9 @@ plan_cluster_use_sort(Oid tableOid, Oid indexOid)
 
    /*
     * Determine eval cost of the index expressions, if any.  We need to
-    * charge twice that amount for each tuple comparison that happens
-    * during the sort, since tuplesort.c will have to re-evaluate the
-    * index expressions each time.  (XXX that's pretty inefficient...)
+    * charge twice that amount for each tuple comparison that happens during
+    * the sort, since tuplesort.c will have to re-evaluate the index
+    * expressions each time.  (XXX that's pretty inefficient...)
     */
    cost_qual_eval(&indexExprCost, indexInfo->indexprs, root);
    comparisonCost = 2.0 * (indexExprCost.startup + indexExprCost.per_tuple);
index bd678ac7edea153d191ca546c478384149c0c530..a40f116bf9a48d709e8868218eddc722c25b2d24 100644 (file)
@@ -1429,7 +1429,7 @@ pullup_replace_vars_callback(Var *var,
  *
  * If a query's setOperations tree consists entirely of simple UNION ALL
  * operations, flatten it into an append relation, which we can process more
- * intelligently than the general setops case.  Otherwise, do nothing.
+ * intelligently than the general setops case. Otherwise, do nothing.
  *
  * In most cases, this can succeed only for a top-level query, because for a
  * subquery in FROM, the parent query's invocation of pull_up_subqueries would
@@ -1478,10 +1478,10 @@ flatten_simple_union_all(PlannerInfo *root)
 
    /*
     * Make a copy of the leftmost RTE and add it to the rtable.  This copy
-    * will represent the leftmost leaf query in its capacity as a member
-    * of the appendrel.  The original will represent the appendrel as a
-    * whole.  (We must do things this way because the upper query's Vars
-    * have to be seen as referring to the whole appendrel.)
+    * will represent the leftmost leaf query in its capacity as a member of
+    * the appendrel.  The original will represent the appendrel as a whole.
+    * (We must do things this way because the upper query's Vars have to be
+    * seen as referring to the whole appendrel.)
     */
    childRTE = copyObject(leftmostRTE);
    parse->rtable = lappend(parse->rtable, childRTE);
@@ -1503,8 +1503,8 @@ flatten_simple_union_all(PlannerInfo *root)
    parse->jointree->fromlist = list_make1(rtr);
 
    /*
-    * Now pretend the query has no setops.  We must do this before trying
-    * to do subquery pullup, because of Assert in pull_up_simple_subquery.
+    * Now pretend the query has no setops.  We must do this before trying to
+    * do subquery pullup, because of Assert in pull_up_simple_subquery.
     */
    parse->setOperations = NULL;
 
@@ -1842,9 +1842,9 @@ reduce_outer_joins_pass2(Node *jtnode,
             * never both, to the children of an outer join.
             *
             * Note that a SEMI join works like an inner join here: it's okay
-            * to pass down both local and upper constraints.  (There can't
-            * be any upper constraints affecting its inner side, but it's
-            * not worth having a separate code path to avoid passing them.)
+            * to pass down both local and upper constraints.  (There can't be
+            * any upper constraints affecting its inner side, but it's not
+            * worth having a separate code path to avoid passing them.)
             *
             * At a FULL join we just punt and pass nothing down --- is it
             * possible to be smarter?
@@ -1882,7 +1882,7 @@ reduce_outer_joins_pass2(Node *jtnode,
                    pass_nonnullable_vars = local_nonnullable_vars;
                    pass_forced_null_vars = local_forced_null_vars;
                }
-               else if (jointype != JOIN_FULL)     /* ie, LEFT or ANTI */
+               else if (jointype != JOIN_FULL) /* ie, LEFT or ANTI */
                {
                    /* can't pass local constraints to non-nullable side */
                    pass_nonnullable_rels = nonnullable_rels;
index 10e00d90ddac55f063718afd9d1bebf45f4cbe5e..f6f00c4ee91bb4d725b2925956b7205c075fc514 100644 (file)
@@ -54,12 +54,12 @@ static Expr *process_duplicate_ors(List *orlist);
  * Although this can be invoked on its own, it's mainly intended as a helper
  * for eval_const_expressions(), and that context drives several design
  * decisions.  In particular, if the input is already AND/OR flat, we must
- * preserve that property.  We also don't bother to recurse in situations
+ * preserve that property. We also don't bother to recurse in situations
  * where we can assume that lower-level executions of eval_const_expressions
  * would already have simplified sub-clauses of the input.
  *
  * The difference between this and a simple make_notclause() is that this
- * tries to get rid of the NOT node by logical simplification.  It's clearly
+ * tries to get rid of the NOT node by logical simplification. It's clearly
  * always a win if the NOT node can be eliminated altogether.  However, our
  * use of DeMorgan's laws could result in having more NOT nodes rather than
  * fewer.  We do that unconditionally anyway, because in WHERE clauses it's
@@ -141,21 +141,21 @@ negate_clause(Node *node)
 
                switch (expr->boolop)
                {
-                   /*--------------------
-                    * Apply DeMorgan's Laws:
-                    *      (NOT (AND A B)) => (OR (NOT A) (NOT B))
-                    *      (NOT (OR A B))  => (AND (NOT A) (NOT B))
-                    * i.e., swap AND for OR and negate each subclause.
-                    *
-                    * If the input is already AND/OR flat and has no NOT
-                    * directly above AND or OR, this transformation preserves
-                    * those properties.  For example, if no direct child of
-                    * the given AND clause is an AND or a NOT-above-OR, then
-                    * the recursive calls of negate_clause() can't return any
-                    * OR clauses.  So we needn't call pull_ors() before
-                    * building a new OR clause.  Similarly for the OR case.
-                    *--------------------
-                    */
+                       /*--------------------
+                        * Apply DeMorgan's Laws:
+                        *      (NOT (AND A B)) => (OR (NOT A) (NOT B))
+                        *      (NOT (OR A B))  => (AND (NOT A) (NOT B))
+                        * i.e., swap AND for OR and negate each subclause.
+                        *
+                        * If the input is already AND/OR flat and has no NOT
+                        * directly above AND or OR, this transformation preserves
+                        * those properties.  For example, if no direct child of
+                        * the given AND clause is an AND or a NOT-above-OR, then
+                        * the recursive calls of negate_clause() can't return any
+                        * OR clauses.  So we needn't call pull_ors() before
+                        * building a new OR clause.  Similarly for the OR case.
+                        *--------------------
+                        */
                    case AND_EXPR:
                        {
                            List       *nargs = NIL;
@@ -183,6 +183,7 @@ negate_clause(Node *node)
                        }
                        break;
                    case NOT_EXPR:
+
                        /*
                         * NOT underneath NOT: they cancel.  We assume the
                         * input is already simplified, so no need to recurse.
@@ -218,8 +219,8 @@ negate_clause(Node *node)
            break;
        case T_BooleanTest:
            {
-               BooleanTest   *expr = (BooleanTest *) node;
-               BooleanTest   *newexpr = makeNode(BooleanTest);
+               BooleanTest *expr = (BooleanTest *) node;
+               BooleanTest *newexpr = makeNode(BooleanTest);
 
                newexpr->arg = expr->arg;
                switch (expr->booltesttype)
index 4ba8921528f405771ee544da1abceeb2fe236806..c97150c6f74bf75be52075299f777a50ae08ffef 100644 (file)
@@ -4,7 +4,7 @@
  *   Routines to preprocess the parse tree target list
  *
  * For INSERT and UPDATE queries, the targetlist must contain an entry for
- * each attribute of the target relation in the correct order.  For all query
+ * each attribute of the target relation in the correct order. For all query
  * types, we may need to add junk tlist entries for Vars used in the RETURNING
  * list and row ID information needed for EvalPlanQual checking.
  *
@@ -80,7 +80,7 @@ preprocess_targetlist(PlannerInfo *root, List *tlist)
    /*
     * Add necessary junk columns for rowmarked rels.  These values are needed
     * for locking of rels selected FOR UPDATE/SHARE, and to do EvalPlanQual
-    * rechecking.  See comments for PlanRowMark in plannodes.h.
+    * rechecking.  See comments for PlanRowMark in plannodes.h.
     */
    foreach(lc, root->rowMarks)
    {
index e15a8620426319f3a6a640add1c668f85c480055..0ed9535d94d05b3cfbd998e183e4d1bbee130d8b 100644 (file)
@@ -938,7 +938,7 @@ generate_setop_tlist(List *colTypes, int flag,
  * The Vars are always generated with varno 0.
  */
 static List *
-generate_append_tlist(List *colTypes, List*colCollations, bool flag,
+generate_append_tlist(List *colTypes, List *colCollations, bool flag,
                      List *input_plans,
                      List *refnames_tlist)
 {
index b1069259f9b9e3e57d8e6f288f4c409f467ccbbc..b3c2aec97b00f64e607536b94363f778a055bd23 100644 (file)
@@ -2042,7 +2042,7 @@ rowtype_field_matches(Oid rowtypeid, int fieldnum,
  *
  * Whenever a function is eliminated from the expression by means of
  * constant-expression evaluation or inlining, we add the function to
- * root->glob->invalItems.  This ensures the plan is known to depend on
+ * root->glob->invalItems. This ensures the plan is known to depend on
  * such functions, even though they aren't referenced anymore.
  *
  * We assume that the tree has already been type-checked and contains
@@ -2437,8 +2437,8 @@ eval_const_expressions_mutator(Node *node,
                                                         context);
 
                    /*
-                    * Use negate_clause() to see if we can simplify away
-                    * the NOT.
+                    * Use negate_clause() to see if we can simplify away the
+                    * NOT.
                     */
                    return negate_clause(arg);
                }
@@ -2548,9 +2548,9 @@ eval_const_expressions_mutator(Node *node,
                              makeConst(OIDOID, -1, InvalidOid, sizeof(Oid),
                                        ObjectIdGetDatum(intypioparam),
                                        false, true),
-                             makeConst(INT4OID, -1, InvalidOid, sizeof(int32),
-                                       Int32GetDatum(-1),
-                                       false, true));
+                           makeConst(INT4OID, -1, InvalidOid, sizeof(int32),
+                                     Int32GetDatum(-1),
+                                     false, true));
 
            simple = simplify_function(infunc,
                                       expr->resulttype, -1,
@@ -2618,9 +2618,9 @@ eval_const_expressions_mutator(Node *node,
        /*
         * If we can simplify the input to a constant, then we don't need the
         * CollateExpr node at all: just change the constcollid field of the
-        * Const node.  Otherwise, replace the CollateExpr with a RelabelType.
-        * (We do that so as to improve uniformity of expression representation
-        * and thus simplify comparison of expressions.)
+        * Const node.  Otherwise, replace the CollateExpr with a RelabelType.
+        * (We do that so as to improve uniformity of expression
+        * representation and thus simplify comparison of expressions.)
         */
        CollateExpr *collate = (CollateExpr *) node;
        Node       *arg;
@@ -2675,7 +2675,7 @@ eval_const_expressions_mutator(Node *node,
         * placeholder nodes, so that we have the opportunity to reduce
         * constant test conditions.  For example this allows
         *      CASE 0 WHEN 0 THEN 1 ELSE 1/0 END
-        * to reduce to 1 rather than drawing a divide-by-0 error.  Note
+        * to reduce to 1 rather than drawing a divide-by-0 error.  Note
         * that when the test expression is constant, we don't have to
         * include it in the resulting CASE; for example
         *      CASE 0 WHEN x THEN y ELSE z END
@@ -2855,9 +2855,9 @@ eval_const_expressions_mutator(Node *node,
            /*
             * We can remove null constants from the list. For a non-null
             * constant, if it has not been preceded by any other
-            * non-null-constant expressions then it is the result.  Otherwise,
-            * it's the next argument, but we can drop following arguments
-            * since they will never be reached.
+            * non-null-constant expressions then it is the result.
+            * Otherwise, it's the next argument, but we can drop following
+            * arguments since they will never be reached.
             */
            if (IsA(e, Const))
            {
@@ -3353,12 +3353,12 @@ simplify_boolean_equality(Oid opno, List *args)
            if (DatumGetBool(((Const *) leftop)->constvalue))
                return rightop; /* true = foo */
            else
-               return negate_clause(rightop); /* false = foo */
+               return negate_clause(rightop);  /* false = foo */
        }
        else
        {
            if (DatumGetBool(((Const *) leftop)->constvalue))
-               return negate_clause(rightop); /* true <> foo */
+               return negate_clause(rightop);  /* true <> foo */
            else
                return rightop; /* false <> foo */
        }
@@ -3902,7 +3902,7 @@ inline_function(Oid funcid, Oid result_type, Oid result_collid,
    fexpr->funcresulttype = result_type;
    fexpr->funcretset = false;
    fexpr->funcformat = COERCE_DONTCARE;        /* doesn't matter */
-   fexpr->funccollid = result_collid;          /* doesn't matter */
+   fexpr->funccollid = result_collid;  /* doesn't matter */
    fexpr->inputcollid = input_collid;
    fexpr->args = args;
    fexpr->location = -1;
@@ -4060,18 +4060,18 @@ inline_function(Oid funcid, Oid result_type, Oid result_collid,
    MemoryContextDelete(mycxt);
 
    /*
-    * If the result is of a collatable type, force the result to expose
-    * the correct collation.  In most cases this does not matter, but
-    * it's possible that the function result is used directly as a sort key
-    * or in other places where we expect exprCollation() to tell the truth.
+    * If the result is of a collatable type, force the result to expose the
+    * correct collation.  In most cases this does not matter, but it's
+    * possible that the function result is used directly as a sort key or in
+    * other places where we expect exprCollation() to tell the truth.
     */
    if (OidIsValid(result_collid))
    {
-       Oid     exprcoll = exprCollation(newexpr);
+       Oid         exprcoll = exprCollation(newexpr);
 
        if (OidIsValid(exprcoll) && exprcoll != result_collid)
        {
-           CollateExpr   *newnode = makeNode(CollateExpr);
+           CollateExpr *newnode = makeNode(CollateExpr);
 
            newnode->arg = (Expr *) newexpr;
            newnode->collOid = result_collid;
@@ -4370,11 +4370,11 @@ inline_set_returning_function(PlannerInfo *root, RangeTblEntry *rte)
    oldcxt = MemoryContextSwitchTo(mycxt);
 
    /*
-    * When we call eval_const_expressions below, it might try to add items
-    * to root->glob->invalItems.  Since it is running in the temp context,
-    * those items will be in that context, and will need to be copied out
-    * if we're successful.  Temporarily reset the list so that we can keep
-    * those items separate from the pre-existing list contents.
+    * When we call eval_const_expressions below, it might try to add items to
+    * root->glob->invalItems.  Since it is running in the temp context, those
+    * items will be in that context, and will need to be copied out if we're
+    * successful.  Temporarily reset the list so that we can keep those items
+    * separate from the pre-existing list contents.
     */
    saveInvalItems = root->glob->invalItems;
    root->glob->invalItems = NIL;
@@ -4419,8 +4419,8 @@ inline_set_returning_function(PlannerInfo *root, RangeTblEntry *rte)
        goto fail;
 
    /*
-    * Set up to handle parameters while parsing the function body.  We
-    * can use the FuncExpr just created as the input for
+    * Set up to handle parameters while parsing the function body.  We can
+    * use the FuncExpr just created as the input for
     * prepare_sql_fn_parse_info.
     */
    pinfo = prepare_sql_fn_parse_info(func_tuple,
@@ -4438,7 +4438,7 @@ inline_set_returning_function(PlannerInfo *root, RangeTblEntry *rte)
 
    querytree_list = pg_analyze_and_rewrite_params(linitial(raw_parsetree_list),
                                                   src,
-                                                  (ParserSetupHook) sql_fn_parser_setup,
+                                      (ParserSetupHook) sql_fn_parser_setup,
                                                   pinfo);
    if (list_length(querytree_list) != 1)
        goto fail;
@@ -4513,8 +4513,8 @@ inline_set_returning_function(PlannerInfo *root, RangeTblEntry *rte)
    ReleaseSysCache(func_tuple);
 
    /*
-    * We don't have to fix collations here because the upper query is
-    * already parsed, ie, the collations in the RTE are what count.
+    * We don't have to fix collations here because the upper query is already
+    * parsed, ie, the collations in the RTE are what count.
     */
 
    /*
index b60c88d9251222a9e0a0944dd3ac23f6b3f7c061..55218b58694bb43e7af654016ac53ac9d58d0a93 100644 (file)
@@ -745,7 +745,7 @@ create_merge_append_path(PlannerInfo *root,
        else
        {
            /* We'll need to insert a Sort node, so include cost for that */
-           Path    sort_path;      /* dummy for result of cost_sort */
+           Path        sort_path;      /* dummy for result of cost_sort */
 
            cost_sort(&sort_path,
                      root,
@@ -1432,11 +1432,11 @@ create_foreignscan_path(PlannerInfo *root, RelOptInfo *rel)
    ForeignPath *pathnode = makeNode(ForeignPath);
    RangeTblEntry *rte;
    FdwRoutine *fdwroutine;
-   FdwPlan    *fdwplan;
+   FdwPlan    *fdwplan;
 
    pathnode->path.pathtype = T_ForeignScan;
    pathnode->path.parent = rel;
-   pathnode->path.pathkeys = NIL;  /* result is always unordered */
+   pathnode->path.pathkeys = NIL;      /* result is always unordered */
 
    /* Get FDW's callback info */
    rte = planner_rt_fetch(rel->relid, root);
index 61edd4991c6b751cf2cfd52e8b7a54d2a5db2f91..9796fbf9b603f93fb462c6cf0ee208af8d04ee96 100644 (file)
@@ -25,7 +25,7 @@
 /* Local functions */
 static Relids find_placeholders_recurse(PlannerInfo *root, Node *jtnode);
 static void find_placeholders_in_qual(PlannerInfo *root, Node *qual,
-                                     Relids relids);
+                         Relids relids);
 
 
 /*
@@ -179,7 +179,7 @@ find_placeholders_recurse(PlannerInfo *root, Node *jtnode)
    {
        elog(ERROR, "unrecognized node type: %d",
             (int) nodeTag(jtnode));
-       jtrelids = NULL;            /* keep compiler quiet */
+       jtrelids = NULL;        /* keep compiler quiet */
    }
    return jtrelids;
 }
index 72fd3e4ca712c8e7c2ca0422f844263a5993bbca..a7e83729b1b1bd161fab50b00847cd883ca33676 100644 (file)
@@ -1696,7 +1696,7 @@ get_btree_test_op(Oid pred_op, Oid clause_op, bool refute_it)
        else if (OidIsValid(clause_op_negator))
        {
            clause_tuple = SearchSysCache3(AMOPOPID,
-                                          ObjectIdGetDatum(clause_op_negator),
+                                        ObjectIdGetDatum(clause_op_negator),
                                           CharGetDatum(AMOP_SEARCH),
                                           ObjectIdGetDatum(opfamily_id));
            if (HeapTupleIsValid(clause_tuple))
index 944db238003e13d5732ca5e1f0f5d59ac0a0ff14..edf507c40565050b64fef6f166556efd01326d48 100644 (file)
@@ -694,7 +694,7 @@ pull_var_clause_walker(Node *node, pull_var_clause_context *context)
  * entries might now be arbitrary expressions, not just Vars.  This affects
  * this function in one important way: we might find ourselves inserting
  * SubLink expressions into subqueries, and we must make sure that their
- * Query.hasSubLinks fields get set to TRUE if so.  If there are any
+ * Query.hasSubLinks fields get set to TRUE if so. If there are any
  * SubLinks in the join alias lists, the outer Query should already have
  * hasSubLinks = TRUE, so this is only relevant to un-flattened subqueries.
  *
index 315f067b17a5cb2e56960425a7fed757eaf9559b..e4e83a67165733e95863f4fa02ecf4702de50c52 100644 (file)
@@ -759,8 +759,8 @@ transformInsertRow(ParseState *pstate, List *exprlist,
         * columns.  Add a suitable hint if that seems to be the problem,
         * because the main error message is quite misleading for this case.
         * (If there's no stmtcols, you'll get something about data type
-        * mismatch, which is less misleading so we don't worry about giving
-        * hint in that case.)
+        * mismatch, which is less misleading so we don't worry about giving a
+        * hint in that case.)
         */
        ereport(ERROR,
                (errcode(ERRCODE_SYNTAX_ERROR),
@@ -809,7 +809,7 @@ transformInsertRow(ParseState *pstate, List *exprlist,
  *   return -1 if expression isn't a RowExpr or a Var referencing one.
  *
  * This is currently used only for hint purposes, so we aren't terribly
- * tense about recognizing all possible cases.  The Var case is interesting
+ * tense about recognizing all possible cases. The Var case is interesting
  * because that's what we'll get in the INSERT ... SELECT (...) case.
  */
 static int
@@ -1100,8 +1100,8 @@ transformValuesClause(ParseState *pstate, SelectStmt *stmt)
        /*
         * We must assign collations now because assign_query_collations
         * doesn't process rangetable entries.  We just assign all the
-        * collations independently in each row, and don't worry about
-        * whether they are consistent vertically either.
+        * collations independently in each row, and don't worry about whether
+        * they are consistent vertically either.
         */
        assign_list_collations(pstate, newsublist);
 
@@ -1452,7 +1452,7 @@ transformSetOperationStmt(ParseState *pstate, SelectStmt *stmt)
  *     Recursively transform leaves and internal nodes of a set-op tree
  *
  * In addition to returning the transformed node, if targetlist isn't NULL
- * then we return a list of its non-resjunk TargetEntry nodes.  For a leaf
+ * then we return a list of its non-resjunk TargetEntry nodes. For a leaf
  * set-op node these are the actual targetlist entries; otherwise they are
  * dummy entries created to carry the type, typmod, collation, and location
  * (for error messages) of each output column of the set-op node.  This info
@@ -1672,7 +1672,7 @@ transformSetOperationTree(ParseState *pstate, SelectStmt *stmt,
             * child query's semantics.
             *
             * If a child expression is an UNKNOWN-type Const or Param, we
-            * want to replace it with the coerced expression.  This can only
+            * want to replace it with the coerced expression.  This can only
             * happen when the child is a leaf set-op node.  It's safe to
             * replace the expression because if the child query's semantics
             * depended on the type of this output column, it'd have already
@@ -1721,8 +1721,8 @@ transformSetOperationTree(ParseState *pstate, SelectStmt *stmt,
             * collation.)
             */
            rescolcoll = select_common_collation(pstate,
-                                                list_make2(lcolnode, rcolnode),
-                                                (op->op == SETOP_UNION && op->all));
+                                             list_make2(lcolnode, rcolnode),
+                                        (op->op == SETOP_UNION && op->all));
 
            /* emit results */
            op->colTypes = lappend_oid(op->colTypes, rescoltype);
@@ -1778,7 +1778,7 @@ transformSetOperationTree(ParseState *pstate, SelectStmt *stmt,
                rescolnode->collation = rescolcoll;
                rescolnode->location = bestlocation;
                restle = makeTargetEntry((Expr *) rescolnode,
-                                        0,         /* no need to set resno */
+                                        0,     /* no need to set resno */
                                         NULL,
                                         false);
                *targetlist = lappend(*targetlist, restle);
@@ -2331,10 +2331,10 @@ transformLockingClause(ParseState *pstate, Query *qry, LockingClause *lc,
                        case RTE_RELATION:
                            if (rte->relkind == RELKIND_FOREIGN_TABLE)
                                ereport(ERROR,
-                                       (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                                        errmsg("SELECT FOR UPDATE/SHARE cannot be used with foreign table \"%s\"",
-                                               rte->eref->aliasname),
-                                        parser_errposition(pstate, thisrel->location)));
+                                    (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
+                                     errmsg("SELECT FOR UPDATE/SHARE cannot be used with foreign table \"%s\"",
+                                            rte->eref->aliasname),
+                                     parser_errposition(pstate, thisrel->location)));
                            applyLockingClause(qry, i,
                                               lc->forUpdate, lc->noWait,
                                               pushedDown);
index 523d6e6989a2cea32ebc993665e692baf44d387a..8356133796624810f7040f94d3ab16322a336cb4 100644 (file)
@@ -631,7 +631,7 @@ check_ungrouped_columns_walker(Node *node,
 
        /*
         * Check whether the Var is known functionally dependent on the GROUP
-        * BY columns.  If so, we can allow the Var to be used, because the
+        * BY columns.  If so, we can allow the Var to be used, because the
         * grouping is really a no-op for this table.  However, this deduction
         * depends on one or more constraints of the table, so we have to add
         * those constraints to the query's constraintDeps list, because it's
@@ -642,11 +642,11 @@ check_ungrouped_columns_walker(Node *node,
         * Because this is a pretty expensive check, and will have the same
         * outcome for all columns of a table, we remember which RTEs we've
         * already proven functional dependency for in the func_grouped_rels
-        * list.  This test also prevents us from adding duplicate entries
-        * to the constraintDeps list.
+        * list.  This test also prevents us from adding duplicate entries to
+        * the constraintDeps list.
         */
        if (list_member_int(*context->func_grouped_rels, var->varno))
-           return false;               /* previously proven acceptable */
+           return false;       /* previously proven acceptable */
 
        Assert(var->varno > 0 &&
               (int) var->varno <= list_length(context->pstate->p_rtable));
@@ -661,7 +661,7 @@ check_ungrouped_columns_walker(Node *node,
            {
                *context->func_grouped_rels =
                    lappend_int(*context->func_grouped_rels, var->varno);
-               return false;           /* acceptable */
+               return false;   /* acceptable */
            }
        }
 
index 6c0a78474cd1c89d2914b135eadf2b5a5b1cbc21..c5fe6b6a3fdb68f54aee8f2ea6f0eefe346cd33c 100644 (file)
@@ -1078,7 +1078,7 @@ buildMergedJoinVar(ParseState *pstate, JoinType jointype,
    else if (l_colvar->vartypmod != outcoltypmod)
        l_node = (Node *) makeRelabelType((Expr *) l_colvar,
                                          outcoltype, outcoltypmod,
-                                         InvalidOid,       /* fixed below */
+                                         InvalidOid,   /* fixed below */
                                          COERCE_IMPLICIT_CAST);
    else
        l_node = (Node *) l_colvar;
@@ -1090,7 +1090,7 @@ buildMergedJoinVar(ParseState *pstate, JoinType jointype,
    else if (r_colvar->vartypmod != outcoltypmod)
        r_node = (Node *) makeRelabelType((Expr *) r_colvar,
                                          outcoltype, outcoltypmod,
-                                         InvalidOid,       /* fixed below */
+                                         InvalidOid,   /* fixed below */
                                          COERCE_IMPLICIT_CAST);
    else
        r_node = (Node *) r_colvar;
@@ -1143,8 +1143,8 @@ buildMergedJoinVar(ParseState *pstate, JoinType jointype,
 
    /*
     * Apply assign_expr_collations to fix up the collation info in the
-    * coercion and CoalesceExpr nodes, if we made any.  This must be done
-    * now so that the join node's alias vars show correct collation info.
+    * coercion and CoalesceExpr nodes, if we made any.  This must be done now
+    * so that the join node's alias vars show correct collation info.
     */
    assign_expr_collations(pstate, res_node);
 
index 895c3ad98565d0c9e160b2e74863e4fa1d26a3e3..0418972517eee4df52dbdc8f7807aa8fa528a674 100644 (file)
@@ -285,7 +285,7 @@ coerce_type(ParseState *pstate, Node *node,
    {
        /*
         * If we have a COLLATE clause, we have to push the coercion
-        * underneath the COLLATE.  This is really ugly, but there is little
+        * underneath the COLLATE.  This is really ugly, but there is little
         * choice because the above hacks on Consts and Params wouldn't happen
         * otherwise.
         */
@@ -1959,7 +1959,7 @@ find_coercion_pathway(Oid targetTypeId, Oid sourceTypeId,
            Oid         sourceElem;
 
            if ((targetElem = get_element_type(targetTypeId)) != InvalidOid &&
-               (sourceElem = get_base_element_type(sourceTypeId)) != InvalidOid)
+           (sourceElem = get_base_element_type(sourceTypeId)) != InvalidOid)
            {
                CoercionPathType elempathtype;
                Oid         elemfuncid;
@@ -2091,8 +2091,8 @@ is_complex_array(Oid typid)
 static bool
 typeIsOfTypedTable(Oid reltypeId, Oid reloftypeId)
 {
-   Oid relid = typeidTypeRelid(reltypeId);
-   bool result = false;
+   Oid         relid = typeidTypeRelid(reltypeId);
+   bool        result = false;
 
    if (relid)
    {
index 3e557db266806dce6e76d6189ecc1ef4a3dda852..f0cd3f88d232dc0d67fe6b82cabbe26ad72ea50b 100644 (file)
  * 1. The output collation of each expression node, or InvalidOid if it
  * returns a noncollatable data type.  This can also be InvalidOid if the
  * result type is collatable but the collation is indeterminate.
- * 2. The collation to be used in executing each function.  InvalidOid means
+ * 2. The collation to be used in executing each function. InvalidOid means
  * that there are no collatable inputs or their collation is indeterminate.
  * This value is only stored in node types that might call collation-using
  * functions.
  *
  * You might think we could get away with storing only one collation per
- * node, but the two concepts really need to be kept distinct.  Otherwise
+ * node, but the two concepts really need to be kept distinct. Otherwise
  * it's too confusing when a function produces a collatable output type but
  * has no collatable inputs or produces noncollatable output from collatable
  * inputs.
  *
  * Cases with indeterminate collation might result in an error being thrown
- * at runtime.  If we knew exactly which functions require collation
+ * at runtime. If we knew exactly which functions require collation
  * information, we could throw those errors at parse time instead.
  *
  * Portions Copyright (c) 1996-2011, PostgreSQL Global Development Group
@@ -72,7 +72,7 @@ typedef struct
 
 static bool assign_query_collations_walker(Node *node, ParseState *pstate);
 static bool assign_collations_walker(Node *node,
-                                    assign_collations_context *context);
+                        assign_collations_context *context);
 
 
 /*
@@ -116,8 +116,8 @@ assign_query_collations_walker(Node *node, ParseState *pstate)
        return false;
 
    /*
-    * We don't want to recurse into a set-operations tree; it's already
-    * been fully processed in transformSetOperationStmt.
+    * We don't want to recurse into a set-operations tree; it's already been
+    * fully processed in transformSetOperationStmt.
     */
    if (IsA(node, SetOperationStmt))
        return false;
@@ -144,7 +144,7 @@ assign_list_collations(ParseState *pstate, List *exprs)
 
    foreach(lc, exprs)
    {
-       Node   *node = (Node *) lfirst(lc);
+       Node       *node = (Node *) lfirst(lc);
 
        assign_expr_collations(pstate, node);
    }
@@ -231,7 +231,7 @@ select_common_collation(ParseState *pstate, List *exprs, bool none_ok)
  *     Recursive guts of collation processing.
  *
  * Nodes with no children (eg, Vars, Consts, Params) must have been marked
- * when built.  All upper-level nodes are marked here.
+ * when built. All upper-level nodes are marked here.
  *
  * Note: if this is invoked directly on a List, it will attempt to infer a
  * common collation for all the list members.  In particular, it will throw
@@ -250,9 +250,9 @@ assign_collations_walker(Node *node, assign_collations_context *context)
        return false;
 
    /*
-    * Prepare for recursion.  For most node types, though not all, the
-    * first thing we do is recurse to process all nodes below this one.
-    * Each level of the tree has its own local context.
+    * Prepare for recursion.  For most node types, though not all, the first
+    * thing we do is recurse to process all nodes below this one. Each level
+    * of the tree has its own local context.
     */
    loccontext.pstate = context->pstate;
    loccontext.collation = InvalidOid;
@@ -323,11 +323,11 @@ assign_collations_walker(Node *node, assign_collations_context *context)
            {
                /*
                 * CaseExpr is a special case because we do not want to
-                * recurse into the test expression (if any).  It was
-                * already marked with collations during transformCaseExpr,
-                * and furthermore its collation is not relevant to the
-                * result of the CASE --- only the output expressions are.
-                * So we can't use expression_tree_walker here.
+                * recurse into the test expression (if any).  It was already
+                * marked with collations during transformCaseExpr, and
+                * furthermore its collation is not relevant to the result of
+                * the CASE --- only the output expressions are. So we can't
+                * use expression_tree_walker here.
                 */
                CaseExpr   *expr = (CaseExpr *) node;
                Oid         typcollation;
@@ -338,6 +338,7 @@ assign_collations_walker(Node *node, assign_collations_context *context)
                    CaseWhen   *when = (CaseWhen *) lfirst(lc);
 
                    Assert(IsA(when, CaseWhen));
+
                    /*
                     * The condition expressions mustn't affect the CASE's
                     * result collation either; but since they are known to
@@ -401,11 +402,11 @@ assign_collations_walker(Node *node, assign_collations_context *context)
        case T_RowExpr:
            {
                /*
-                * RowExpr is a special case because the subexpressions
-                * are independent: we don't want to complain if some of
-                * them have incompatible explicit collations.
+                * RowExpr is a special case because the subexpressions are
+                * independent: we don't want to complain if some of them have
+                * incompatible explicit collations.
                 */
-               RowExpr *expr = (RowExpr *) node;
+               RowExpr    *expr = (RowExpr *) node;
 
                assign_list_collations(context->pstate, expr->args);
 
@@ -414,7 +415,7 @@ assign_collations_walker(Node *node, assign_collations_context *context)
                 * has a collation, we can just stop here: this node has no
                 * impact on the collation of its parent.
                 */
-               return false;           /* done */
+               return false;   /* done */
            }
        case T_RowCompareExpr:
            {
@@ -431,9 +432,9 @@ assign_collations_walker(Node *node, assign_collations_context *context)
 
                forboth(l, expr->largs, r, expr->rargs)
                {
-                   Node  *le = (Node *) lfirst(l);
-                   Node  *re = (Node *) lfirst(r);
-                   Oid     coll;
+                   Node       *le = (Node *) lfirst(l);
+                   Node       *re = (Node *) lfirst(r);
+                   Oid         coll;
 
                    coll = select_common_collation(context->pstate,
                                                   list_make2(le, re),
@@ -443,11 +444,11 @@ assign_collations_walker(Node *node, assign_collations_context *context)
                expr->inputcollids = colls;
 
                /*
-                * Since the result is always boolean and therefore never
-                * has a collation, we can just stop here: this node has no
-                * impact on the collation of its parent.
+                * Since the result is always boolean and therefore never has
+                * a collation, we can just stop here: this node has no impact
+                * on the collation of its parent.
                 */
-               return false;           /* done */
+               return false;   /* done */
            }
        case T_CoerceToDomain:
            {
@@ -455,12 +456,12 @@ assign_collations_walker(Node *node, assign_collations_context *context)
                 * If the domain declaration included a non-default COLLATE
                 * spec, then use that collation as the output collation of
                 * the coercion.  Otherwise allow the input collation to
-                * bubble up.  (The input should be of the domain's base
-                * type, therefore we don't need to worry about it not being
+                * bubble up.  (The input should be of the domain's base type,
+                * therefore we don't need to worry about it not being
                 * collatable when the domain is.)
                 */
                CoerceToDomain *expr = (CoerceToDomain *) node;
-               Oid     typcollation = get_typcollation(expr->resulttype);
+               Oid         typcollation = get_typcollation(expr->resulttype);
 
                /* ... but first, recurse */
                (void) expression_tree_walker(node,
@@ -510,7 +511,7 @@ assign_collations_walker(Node *node, assign_collations_context *context)
 
            /*
             * TargetEntry can have only one child, and should bubble that
-            * state up to its parent.  We can't use the general-case code
+            * state up to its parent.  We can't use the general-case code
             * below because exprType and friends don't work on TargetEntry.
             */
            collation = loccontext.collation;
@@ -525,9 +526,9 @@ assign_collations_walker(Node *node, assign_collations_context *context)
             * There are some cases where there might not be a failure, for
             * example if the planner chooses to use hash aggregation instead
             * of sorting for grouping; but it seems better to predictably
-            * throw an error.  (Compare transformSetOperationTree, which will
-            * throw error for indeterminate collation of set-op columns,
-            * even though the planner might be able to implement the set-op
+            * throw an error.  (Compare transformSetOperationTree, which will
+            * throw error for indeterminate collation of set-op columns, even
+            * though the planner might be able to implement the set-op
             * without sorting.)
             */
            if (strength == COLLATE_CONFLICT &&
@@ -548,6 +549,7 @@ assign_collations_walker(Node *node, assign_collations_context *context)
            (void) expression_tree_walker(node,
                                          assign_collations_walker,
                                          (void *) &loccontext);
+
            /*
             * When we're invoked on a query's jointree, we don't need to do
             * anything with join nodes except recurse through them to process
@@ -599,6 +601,7 @@ assign_collations_walker(Node *node, assign_collations_context *context)
        case T_CaseTestExpr:
        case T_SetToDefault:
        case T_CurrentOfExpr:
+
            /*
             * General case for childless expression nodes.  These should
             * already have a collation assigned; it is not this function's
@@ -610,10 +613,10 @@ assign_collations_walker(Node *node, assign_collations_context *context)
            /*
             * Note: in most cases, there will be an assigned collation
             * whenever type_is_collatable(exprType(node)); but an exception
-            * occurs for a Var referencing a subquery output column for
-            * which a unique collation was not determinable.  That may lead
-            * to a runtime failure if a collation-sensitive function is
-            * applied to the Var.
+            * occurs for a Var referencing a subquery output column for which
+            * a unique collation was not determinable.  That may lead to a
+            * runtime failure if a collation-sensitive function is applied to
+            * the Var.
             */
 
            if (OidIsValid(collation))
@@ -626,10 +629,10 @@ assign_collations_walker(Node *node, assign_collations_context *context)
        default:
            {
                /*
-                * General case for most expression nodes with children.
-                * First recurse, then figure out what to assign here.
+                * General case for most expression nodes with children. First
+                * recurse, then figure out what to assign here.
                 */
-               Oid     typcollation;
+               Oid         typcollation;
 
                (void) expression_tree_walker(node,
                                              assign_collations_walker,
@@ -668,9 +671,9 @@ assign_collations_walker(Node *node, assign_collations_context *context)
                }
 
                /*
-                * Save the result collation into the expression node.
-                * If the state is COLLATE_CONFLICT, we'll set the collation
-                * to InvalidOid, which might result in an error at runtime.
+                * Save the result collation into the expression node. If the
+                * state is COLLATE_CONFLICT, we'll set the collation to
+                * InvalidOid, which might result in an error at runtime.
                 */
                if (strength == COLLATE_CONFLICT)
                    exprSetCollation(node, InvalidOid);
index c527f7589e20646d02f9fdaf97eada30d744a048..41097263b413f79b1fa2ea2fcd448e88edd3b4ef 100644 (file)
@@ -245,7 +245,7 @@ analyzeCTE(ParseState *pstate, CommonTableExpr *cte)
    cte->ctequery = (Node *) query;
 
    /*
-    * Check that we got something reasonable.  These first two cases should
+    * Check that we got something reasonable.  These first two cases should
     * be prevented by the grammar.
     */
    if (!IsA(query, Query))
@@ -310,7 +310,7 @@ analyzeCTE(ParseState *pstate, CommonTableExpr *cte)
                continue;
            varattno++;
            Assert(varattno == te->resno);
-           if (lctyp == NULL || lctypmod == NULL || lccoll == NULL)        /* shouldn't happen */
+           if (lctyp == NULL || lctypmod == NULL || lccoll == NULL)    /* shouldn't happen */
                elog(ERROR, "wrong number of output columns in WITH");
            texpr = (Node *) te->expr;
            if (exprType(texpr) != lfirst_oid(lctyp) ||
@@ -338,7 +338,7 @@ analyzeCTE(ParseState *pstate, CommonTableExpr *cte)
            lctypmod = lnext(lctypmod);
            lccoll = lnext(lccoll);
        }
-       if (lctyp != NULL || lctypmod != NULL || lccoll != NULL)    /* shouldn't happen */
+       if (lctyp != NULL || lctypmod != NULL || lccoll != NULL)        /* shouldn't happen */
            elog(ERROR, "wrong number of output columns in WITH");
    }
 }
@@ -645,7 +645,7 @@ checkWellFormedRecursion(CteState *cstate)
        CommonTableExpr *cte = cstate->items[i].cte;
        SelectStmt *stmt = (SelectStmt *) cte->ctequery;
 
-       Assert(!IsA(stmt, Query));  /* not analyzed yet */
+       Assert(!IsA(stmt, Query));      /* not analyzed yet */
 
        /* Ignore items that weren't found to be recursive */
        if (!cte->cterecursive)
index 4986e0e5fab551b76d85b4a77b9aaf67578eefce..08f0439e7edb270176e4b2c60cd92997ab745d69 100644 (file)
@@ -163,6 +163,7 @@ transformExpr(ParseState *pstate, Node *expr)
 
                    typenameTypeIdAndMod(pstate, tc->typeName,
                                         &targetType, &targetTypmod);
+
                    /*
                     * If target is a domain over array, work with the base
                     * array type here.  transformTypeCast below will cast the
@@ -1283,9 +1284,9 @@ transformCaseExpr(ParseState *pstate, CaseExpr *c)
 
        /*
         * Run collation assignment on the test expression so that we know
-        * what collation to mark the placeholder with.  In principle we
-        * could leave it to parse_collate.c to do that later, but propagating
-        * the result to the CaseTestExpr would be unnecessarily complicated.
+        * what collation to mark the placeholder with.  In principle we could
+        * leave it to parse_collate.c to do that later, but propagating the
+        * result to the CaseTestExpr would be unnecessarily complicated.
         */
        assign_expr_collations(pstate, arg);
 
@@ -2122,15 +2123,16 @@ static Node *
 transformCollateClause(ParseState *pstate, CollateClause *c)
 {
    CollateExpr *newc;
-   Oid     argtype;
+   Oid         argtype;
 
    newc = makeNode(CollateExpr);
    newc->arg = (Expr *) transformExpr(pstate, c->arg);
 
    argtype = exprType((Node *) newc->arg);
+
    /*
-    * The unknown type is not collatable, but coerce_type() takes
-    * care of it separately, so we'll let it go here.
+    * The unknown type is not collatable, but coerce_type() takes care of it
+    * separately, so we'll let it go here.
     */
    if (!type_is_collatable(argtype) && argtype != UNKNOWNOID)
        ereport(ERROR,
@@ -2351,7 +2353,7 @@ make_row_comparison_op(ParseState *pstate, List *opname,
    rcexpr->rctype = rctype;
    rcexpr->opnos = opnos;
    rcexpr->opfamilies = opfamilies;
-   rcexpr->inputcollids = NIL; /* assign_expr_collations will fix this */
+   rcexpr->inputcollids = NIL; /* assign_expr_collations will fix this */
    rcexpr->largs = largs;
    rcexpr->rargs = rargs;
 
index ba699e9a1ed929dd97a79d42ce69a4dca0003d78..75f1e20475d1c2df628f0a866fc081c601340e98 100644 (file)
@@ -288,9 +288,9 @@ ParseFuncOrColumn(ParseState *pstate, List *funcname, List *fargs,
                     errmsg("function %s does not exist",
                            func_signature_string(funcname, nargs, argnames,
                                                  actual_arg_types)),
-           errhint("No aggregate function matches the given name and argument types. "
-                   "Perhaps you misplaced ORDER BY; ORDER BY must appear "
-                   "after all regular arguments of the aggregate."),
+                    errhint("No aggregate function matches the given name and argument types. "
+                     "Perhaps you misplaced ORDER BY; ORDER BY must appear "
+                            "after all regular arguments of the aggregate."),
                     parser_errposition(pstate, location)));
        }
        else
@@ -1034,7 +1034,7 @@ func_get_detail(List *funcname,
                        case COERCION_PATH_COERCEVIAIO:
                            if ((sourceType == RECORDOID ||
                                 ISCOMPLEX(sourceType)) &&
-                               TypeCategory(targetType) == TYPCATEGORY_STRING)
+                             TypeCategory(targetType) == TYPCATEGORY_STRING)
                                iscoercion = false;
                            else
                                iscoercion = true;
index 07257accc828fe76dec18cfa39ea438a45f2ce64..7b5c040cb4010ce3d25f0e51936ed2f112629902 100644 (file)
@@ -220,7 +220,7 @@ transformArrayType(Oid *arrayType, int32 *arrayTypmod)
     * If the input is a domain, smash to base type, and extract the actual
     * typmod to be applied to the base type.  Subscripting a domain is an
     * operation that necessarily works on the base array type, not the domain
-    * itself.  (Note that we provide no method whereby the creator of a
+    * itself.  (Note that we provide no method whereby the creator of a
     * domain over an array type could hide its ability to be subscripted.)
     */
    *arrayType = getBaseTypeAndTypmod(*arrayType, arrayTypmod);
@@ -290,8 +290,8 @@ transformArraySubscripts(ParseState *pstate,
 
    /*
     * Caller may or may not have bothered to determine elementType.  Note
-    * that if the caller did do so, arrayType/arrayTypMod must be as
-    * modified by transformArrayType, ie, smash domain to base type.
+    * that if the caller did do so, arrayType/arrayTypMod must be as modified
+    * by transformArrayType, ie, smash domain to base type.
     */
    if (!OidIsValid(elementType))
        elementType = transformArrayType(&arrayType, &arrayTypMod);
@@ -542,7 +542,7 @@ make_const(ParseState *pstate, Value *value, int location)
 
    con = makeConst(typeid,
                    -1,         /* typmod -1 is OK for all cases */
-                   InvalidOid, /* all cases are uncollatable types */
+                   InvalidOid, /* all cases are uncollatable types */
                    typelen,
                    val,
                    false,
index 822e0a0a628308c7bcec57a3574ac71b7bb2260f..15a3bb3a01360942e6cea0085233e4f2eabda6a3 100644 (file)
@@ -214,9 +214,9 @@ get_sort_group_operators(Oid argtype,
    /*
     * If the datatype is an array, then we can use array_lt and friends ...
     * but only if there are suitable operators for the element type.
-    * Likewise, array types are only hashable if the element type is.
-    * Testing all three operator IDs here should be redundant, but let's do
-    * it anyway.
+    * Likewise, array types are only hashable if the element type is. Testing
+    * all three operator IDs here should be redundant, but let's do it
+    * anyway.
     */
    if (lt_opr == ARRAY_LT_OP ||
        eq_opr == ARRAY_EQ_OP ||
index 1895f92d7c4187fd7d154ee54f5c608db687e7c6..3b8a67619e8ff40e8f63549d76075d9a93973341 100644 (file)
@@ -233,8 +233,8 @@ variable_coerce_param_hook(ParseState *pstate, Param *param,
 
        /*
         * This module always sets a Param's collation to be the default for
-        * its datatype.  If that's not what you want, you should be using
-        * the more general parser substitution hooks.
+        * its datatype.  If that's not what you want, you should be using the
+        * more general parser substitution hooks.
         */
        param->paramcollid = get_typcollation(param->paramtype);
 
index 1af3f2f3b53448afcc68875ead09c5472e3bf4e3..d603ce2f423e52b100b440a577d99aeb1dd3ab8a 100644 (file)
@@ -1393,14 +1393,14 @@ addRangeTableEntryForCTE(ParseState *pstate,
     */
    if (IsA(cte->ctequery, Query))
    {
-       Query  *ctequery = (Query *) cte->ctequery;
+       Query      *ctequery = (Query *) cte->ctequery;
 
        if (ctequery->commandType != CMD_SELECT &&
            ctequery->returningList == NIL)
            ereport(ERROR,
                    (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                    errmsg("WITH query \"%s\" does not have a RETURNING clause",
-                           cte->ctename),
+                errmsg("WITH query \"%s\" does not have a RETURNING clause",
+                       cte->ctename),
                     parser_errposition(pstate, rv->location)));
    }
 
@@ -1871,7 +1871,7 @@ expandTupleDesc(TupleDesc tupdesc, Alias *eref,
                     * what type the Const claims to be.
                     */
                    *colvars = lappend(*colvars,
-                                      makeNullConst(INT4OID, -1, InvalidOid));
+                                    makeNullConst(INT4OID, -1, InvalidOid));
                }
            }
            continue;
@@ -1893,7 +1893,7 @@ expandTupleDesc(TupleDesc tupdesc, Alias *eref,
            Var        *varnode;
 
            varnode = makeVar(rtindex, attr->attnum,
-                             attr->atttypid, attr->atttypmod, attr->attcollation,
+                        attr->atttypid, attr->atttypmod, attr->attcollation,
                              sublevels_up);
            varnode->location = location;
 
index 52c6db2eb5cae4780abca4bb34f1f6d063af6ecb..3f630147b0fa5687c7df6ea63f747cc7a16ee3e5 100644 (file)
@@ -671,7 +671,7 @@ transformAssignmentIndirection(ParseState *pstate,
                         parser_errposition(pstate, location)));
 
            get_atttypetypmodcoll(typrelid, attnum,
-                                 &fieldTypeId, &fieldTypMod, &fieldCollation);
+                               &fieldTypeId, &fieldTypMod, &fieldCollation);
 
            /* recurse to create appropriate RHS for field assign */
            rhs = transformAssignmentIndirection(pstate,
@@ -783,8 +783,8 @@ transformAssignmentSubscripts(ParseState *pstate,
 
    /*
     * Array normally has same collation as elements, but there's an
-    * exception: we might be subscripting a domain over an array type.
-    * In that case use collation of the base type.
+    * exception: we might be subscripting a domain over an array type. In
+    * that case use collation of the base type.
     */
    if (arrayType == targetTypeId)
        collationNeeded = targetCollation;
index b65f5f991cb5502152985ce41a79d1375334220b..22411f1608bf328a2f801bc9cffa8dc45361eaa3 100644 (file)
@@ -121,7 +121,7 @@ static void transformFKConstraints(CreateStmtContext *cxt,
                       bool skipValidation,
                       bool isAddConstraint);
 static void transformConstraintAttrs(CreateStmtContext *cxt,
-                                    List *constraintList);
+                        List *constraintList);
 static void transformColumnType(CreateStmtContext *cxt, ColumnDef *column);
 static void setSchemaName(char *context_schema, char **stmt_schema_name);
 
@@ -368,8 +368,8 @@ transformColumnDefinition(CreateStmtContext *cxt, ColumnDef *column)
         * If this is ALTER ADD COLUMN, make sure the sequence will be owned
         * by the table's owner.  The current user might be someone else
         * (perhaps a superuser, or someone who's only a member of the owning
-        * role), but the SEQUENCE OWNED BY mechanisms will bleat unless
-        * table and sequence have exactly the same owning role.
+        * role), but the SEQUENCE OWNED BY mechanisms will bleat unless table
+        * and sequence have exactly the same owning role.
         */
        if (cxt->rel)
            seqstmt->ownerId = cxt->rel->rd_rel->relowner;
@@ -732,7 +732,7 @@ transformInhRelation(CreateStmtContext *cxt, InhRelation *inhRelation)
            /* Copy comment on constraint */
            if ((inhRelation->options & CREATE_TABLE_LIKE_COMMENTS) &&
                (comment = GetComment(get_constraint_oid(RelationGetRelid(relation),
-                                                         n->conname, false),
+                                                        n->conname, false),
                                      ConstraintRelationId,
                                      0)) != NULL)
            {
@@ -1390,8 +1390,8 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
    /*
     * If it's ALTER TABLE ADD CONSTRAINT USING INDEX, look up the index and
     * verify it's usable, then extract the implied column name list.  (We
-    * will not actually need the column name list at runtime, but we need
-    * it now to check for duplicate column entries below.)
+    * will not actually need the column name list at runtime, but we need it
+    * now to check for duplicate column entries below.)
     */
    if (constraint->indexname != NULL)
    {
@@ -1436,8 +1436,8 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
        if (OidIsValid(get_index_constraint(index_oid)))
            ereport(ERROR,
                    (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
-                    errmsg("index \"%s\" is already associated with a constraint",
-                           index_name),
+              errmsg("index \"%s\" is already associated with a constraint",
+                     index_name),
                     parser_errposition(cxt->pstate, constraint->location)));
 
        /* Perform validity checks on the index */
@@ -1482,8 +1482,8 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
                     parser_errposition(cxt->pstate, constraint->location)));
 
        /*
-        * It's probably unsafe to change a deferred index to non-deferred.
-        * (A non-constraint index couldn't be deferred anyway, so this case
+        * It's probably unsafe to change a deferred index to non-deferred. (A
+        * non-constraint index couldn't be deferred anyway, so this case
         * should never occur; no need to sweat, but let's check it.)
         */
        if (!index_form->indimmediate && !constraint->deferrable)
@@ -1494,7 +1494,7 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
                     parser_errposition(cxt->pstate, constraint->location)));
 
        /*
-        * Insist on it being a btree.  That's the only kind that supports
+        * Insist on it being a btree.  That's the only kind that supports
         * uniqueness at the moment anyway; but we must have an index that
         * exactly matches what you'd get from plain ADD CONSTRAINT syntax,
         * else dump and reload will produce a different index (breaking
@@ -1514,15 +1514,15 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
 
        for (i = 0; i < index_form->indnatts; i++)
        {
-           int2    attnum = index_form->indkey.values[i];
+           int2        attnum = index_form->indkey.values[i];
            Form_pg_attribute attform;
-           char   *attname;
-           Oid     defopclass;
+           char       *attname;
+           Oid         defopclass;
 
            /*
             * We shouldn't see attnum == 0 here, since we already rejected
-            * expression indexes.  If we do, SystemAttributeDefinition
-            * will throw an error.
+            * expression indexes.  If we do, SystemAttributeDefinition will
+            * throw an error.
             */
            if (attnum > 0)
            {
@@ -1531,11 +1531,11 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
            }
            else
                attform = SystemAttributeDefinition(attnum,
-                                                   heap_rel->rd_rel->relhasoids);
+                                              heap_rel->rd_rel->relhasoids);
            attname = pstrdup(NameStr(attform->attname));
 
            /*
-            * Insist on default opclass and sort options.  While the index
+            * Insist on default opclass and sort options.  While the index
             * would still work as a constraint with non-default settings, it
             * might not provide exactly the same uniqueness semantics as
             * you'd get from a normally-created constraint; and there's also
@@ -1549,7 +1549,7 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
                        (errcode(ERRCODE_WRONG_OBJECT_TYPE),
                         errmsg("index \"%s\" does not have default sorting behavior", index_name),
                         errdetail("Cannot create a PRIMARY KEY or UNIQUE constraint using such an index."),
-                        parser_errposition(cxt->pstate, constraint->location)));
+                    parser_errposition(cxt->pstate, constraint->location)));
 
            constraint->keys = lappend(constraint->keys, makeString(attname));
        }
@@ -1694,13 +1694,13 @@ transformIndexConstraint(Constraint *constraint, CreateStmtContext *cxt)
                            (errcode(ERRCODE_DUPLICATE_COLUMN),
                             errmsg("column \"%s\" appears twice in primary key constraint",
                                    key),
-                            parser_errposition(cxt->pstate, constraint->location)));
+                    parser_errposition(cxt->pstate, constraint->location)));
                else
                    ereport(ERROR,
                            (errcode(ERRCODE_DUPLICATE_COLUMN),
                    errmsg("column \"%s\" appears twice in unique constraint",
                           key),
-                            parser_errposition(cxt->pstate, constraint->location)));
+                    parser_errposition(cxt->pstate, constraint->location)));
            }
        }
 
@@ -1743,7 +1743,7 @@ transformFKConstraints(CreateStmtContext *cxt,
            Constraint *constraint = (Constraint *) lfirst(fkclist);
 
            constraint->skip_validation = true;
-           constraint->initially_valid  = true;
+           constraint->initially_valid = true;
        }
    }
 
@@ -2120,18 +2120,18 @@ transformRuleStmt(RuleStmt *stmt, const char *queryString,
             * However, they were already in the outer rangetable when we
             * analyzed the query, so we have to check.
             *
-            * Note that in the INSERT...SELECT case, we need to examine
-            * the CTE lists of both top_subqry and sub_qry.
+            * Note that in the INSERT...SELECT case, we need to examine the
+            * CTE lists of both top_subqry and sub_qry.
             *
-            * Note that we aren't digging into the body of the query
-            * looking for WITHs in nested sub-SELECTs.  A WITH down there
-            * can legitimately refer to OLD/NEW, because it'd be an
+            * Note that we aren't digging into the body of the query looking
+            * for WITHs in nested sub-SELECTs.  A WITH down there can
+            * legitimately refer to OLD/NEW, because it'd be an
             * indirect-correlated outer reference.
             */
            if (rangeTableEntry_used((Node *) top_subqry->cteList,
                                     PRS2_OLD_VARNO, 0) ||
                rangeTableEntry_used((Node *) sub_qry->cteList,
-                                     PRS2_OLD_VARNO, 0))
+                                    PRS2_OLD_VARNO, 0))
                ereport(ERROR,
                        (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
                         errmsg("cannot refer to OLD within WITH query")));
@@ -2226,12 +2226,13 @@ transformAlterTableStmt(AlterTableStmt *stmt, const char *queryString)
    lockmode = AlterTableGetLockLevel(stmt->cmds);
 
    /*
-    * Acquire appropriate lock on the target relation, which will be held until
-    * end of transaction.  This ensures any decisions we make here based on
-    * the state of the relation will still be good at execution. We must get
-    * lock now because execution will later require it; taking a lower grade lock
-    * now and trying to upgrade later risks deadlock.  Any new commands we add
-    * after this must not upgrade the lock level requested here.
+    * Acquire appropriate lock on the target relation, which will be held
+    * until end of transaction.  This ensures any decisions we make here
+    * based on the state of the relation will still be good at execution. We
+    * must get lock now because execution will later require it; taking a
+    * lower grade lock now and trying to upgrade later risks deadlock.  Any
+    * new commands we add after this must not upgrade the lock level
+    * requested here.
     */
    rel = relation_openrv(stmt->relation, lockmode);
 
@@ -2522,7 +2523,7 @@ transformColumnType(CreateStmtContext *cxt, ColumnDef *column)
    if (column->collClause)
    {
        Form_pg_type typtup = (Form_pg_type) GETSTRUCT(ctype);
-       Oid     collOid;
+       Oid         collOid;
 
        collOid = LookupCollation(cxt->pstate,
                                  column->collClause->collname,
index 373d6aaec84338b7242100acfb476975225a1a6e..bc400791788d843370c7a122c94129ea5d2f9082 100644 (file)
@@ -89,7 +89,7 @@ BSD44_derived_dlsym(void *handle, const char *name)
        snprintf(buf, sizeof(buf), "_%s", name);
        name = buf;
    }
-#endif /* !__ELF__ */
+#endif   /* !__ELF__ */
    if ((vp = dlsym(handle, (char *) name)) == NULL)
        snprintf(error_message, sizeof(error_message),
                 "dlsym (%s) failed", name);
index d12065614140fd335d82cb873f88e6e08d7c5cae..1bac83784af9d766afe9a023ffaf0fdae3fdaba4 100644 (file)
@@ -89,7 +89,7 @@ BSD44_derived_dlsym(void *handle, const char *name)
        snprintf(buf, sizeof(buf), "_%s", name);
        name = buf;
    }
-#endif /* !__ELF__ */
+#endif   /* !__ELF__ */
    if ((vp = dlsym(handle, (char *) name)) == NULL)
        snprintf(error_message, sizeof(error_message),
                 "dlsym (%s) failed", name);
index 2d061efb1e8ecb4c8e217e6e173221cbc10d3fba..4556a2dfebb580ed33fa6b37daae955966d09db9 100644 (file)
@@ -89,7 +89,7 @@ BSD44_derived_dlsym(void *handle, const char *name)
        snprintf(buf, sizeof(buf), "_%s", name);
        name = buf;
    }
-#endif /* !__ELF__ */
+#endif   /* !__ELF__ */
    if ((vp = dlsym(handle, (char *) name)) == NULL)
        snprintf(error_message, sizeof(error_message),
                 "dlsym (%s) failed", name);
index eeed3fc2e1132f8968870124b2be4304b55e5fc4..b86a53ad34aa74d66fdc9921b8613eeb606835b7 100644 (file)
@@ -37,7 +37,7 @@ pgpipe(int handles[2])
    serv_addr.sin_family = AF_INET;
    serv_addr.sin_port = htons(0);
    serv_addr.sin_addr.s_addr = htonl(INADDR_LOOPBACK);
-   if (bind(s, (SOCKADDR *) & serv_addr, len) == SOCKET_ERROR)
+   if (bind(s, (SOCKADDR *) &serv_addr, len) == SOCKET_ERROR)
    {
        ereport(LOG, (errmsg_internal("pgpipe failed to bind: %ui", WSAGetLastError())));
        closesocket(s);
@@ -49,7 +49,7 @@ pgpipe(int handles[2])
        closesocket(s);
        return -1;
    }
-   if (getsockname(s, (SOCKADDR *) & serv_addr, &len) == SOCKET_ERROR)
+   if (getsockname(s, (SOCKADDR *) &serv_addr, &len) == SOCKET_ERROR)
    {
        ereport(LOG, (errmsg_internal("pgpipe failed to getsockname: %ui", WSAGetLastError())));
        closesocket(s);
@@ -62,13 +62,13 @@ pgpipe(int handles[2])
        return -1;
    }
 
-   if (connect(handles[1], (SOCKADDR *) & serv_addr, len) == SOCKET_ERROR)
+   if (connect(handles[1], (SOCKADDR *) &serv_addr, len) == SOCKET_ERROR)
    {
        ereport(LOG, (errmsg_internal("pgpipe failed to connect socket: %ui", WSAGetLastError())));
        closesocket(s);
        return -1;
    }
-   if ((handles[0] = accept(s, (SOCKADDR *) & serv_addr, &len)) == INVALID_SOCKET)
+   if ((handles[0] = accept(s, (SOCKADDR *) &serv_addr, &len)) == INVALID_SOCKET)
    {
        ereport(LOG, (errmsg_internal("pgpipe failed to accept socket: %ui", WSAGetLastError())));
        closesocket(handles[1]);
index 102a28ed04e1eaaf7181f0e568c6034eca5aa539..754d2ac7e04166fba75a5e35bac549e46bfa673f 100644 (file)
@@ -153,7 +153,7 @@ InternalIpcMemoryCreate(IpcMemoryKey memKey, Size size)
          "segment exceeded your kernel's SHMMAX parameter.  You can either "
                         "reduce the request size or reconfigure the kernel with larger SHMMAX.  "
                  "To reduce the request size (currently %lu bytes), reduce "
-                      "PostgreSQL's shared memory usage, perhaps by reducing shared_buffers "
+                        "PostgreSQL's shared memory usage, perhaps by reducing shared_buffers "
                         "or max_connections.\n"
                         "If the request size is already small, it's possible that it is less than "
                         "your kernel's SHMMIN parameter, in which case raising the request size or "
@@ -164,10 +164,10 @@ InternalIpcMemoryCreate(IpcMemoryKey memKey, Size size)
                 (errno == ENOMEM) ?
                 errhint("This error usually means that PostgreSQL's request for a shared "
                   "memory segment exceeded available memory or swap space, "
-                        "or exceeded your kernel's SHMALL parameter.  You can either "
+              "or exceeded your kernel's SHMALL parameter.  You can either "
                         "reduce the request size or reconfigure the kernel with larger SHMALL.  "
                  "To reduce the request size (currently %lu bytes), reduce "
-                      "PostgreSQL's shared memory usage, perhaps by reducing shared_buffers "
+                        "PostgreSQL's shared memory usage, perhaps by reducing shared_buffers "
                         "or max_connections.\n"
        "The PostgreSQL documentation contains more information about shared "
                         "memory configuration.",
@@ -203,7 +203,7 @@ InternalIpcMemoryCreate(IpcMemoryKey memKey, Size size)
     * hurt, but might confuse humans).
     */
    {
-       char line[64];
+       char        line[64];
 
        sprintf(line, "%9lu %9lu",
                (unsigned long) memKey, (unsigned long) shmid);
index 32d0cb5e3f86d3f9f6600c45e7c9c0b9fb9c3305..6dae7c94c0353a3acbede88b70aa2522e63733ed 100644 (file)
  *
  * for (;;)
  * {
- *     ResetLatch();
- *     if (work to do)
- *         Do Stuff();
+ *    ResetLatch();
+ *    if (work to do)
+ *        Do Stuff();
  *
- *     WaitLatch();
+ *    WaitLatch();
  * }
  *
  * It's important to reset the latch *before* checking if there's work to
 static volatile sig_atomic_t waiting = false;
 
 /* Read and write end of the self-pipe */
-static int selfpipe_readfd = -1;
-static int selfpipe_writefd = -1;
+static int selfpipe_readfd = -1;
+static int selfpipe_writefd = -1;
 
 /* private function prototypes */
 static void initSelfPipe(void);
@@ -205,7 +205,8 @@ int
 WaitLatchOrSocket(volatile Latch *latch, pgsocket sock, bool forRead,
                  bool forWrite, long timeout)
 {
-   struct timeval tv, *tvp = NULL;
+   struct timeval tv,
+              *tvp = NULL;
    fd_set      input_mask;
    fd_set      output_mask;
    int         rc;
@@ -225,13 +226,13 @@ WaitLatchOrSocket(volatile Latch *latch, pgsocket sock, bool forRead,
    waiting = true;
    for (;;)
    {
-       int hifd;
+       int         hifd;
 
        /*
         * Clear the pipe, and check if the latch is set already. If someone
-        * sets the latch between this and the select() below, the setter
-        * will write a byte to the pipe (or signal us and the signal handler
-        * will do that), and the select() will return immediately.
+        * sets the latch between this and the select() below, the setter will
+        * write a byte to the pipe (or signal us and the signal handler will
+        * do that), and the select() will return immediately.
         */
        drainSelfPipe();
        if (latch->is_set)
@@ -278,7 +279,7 @@ WaitLatchOrSocket(volatile Latch *latch, pgsocket sock, bool forRead,
             (forWrite && FD_ISSET(sock, &output_mask))))
        {
            result = 2;
-           break;      /* data available in socket */
+           break;              /* data available in socket */
        }
    }
    waiting = false;
@@ -293,7 +294,7 @@ WaitLatchOrSocket(volatile Latch *latch, pgsocket sock, bool forRead,
 void
 SetLatch(volatile Latch *latch)
 {
-   pid_t owner_pid;
+   pid_t       owner_pid;
 
    /* Quick exit if already set */
    if (latch->is_set)
@@ -302,17 +303,17 @@ SetLatch(volatile Latch *latch)
    latch->is_set = true;
 
    /*
-    * See if anyone's waiting for the latch. It can be the current process
-    * if we're in a signal handler. We use the self-pipe to wake up the
-    * select() in that case. If it's another process, send a signal.
+    * See if anyone's waiting for the latch. It can be the current process if
+    * we're in a signal handler. We use the self-pipe to wake up the select()
+    * in that case. If it's another process, send a signal.
     *
-    * Fetch owner_pid only once, in case the owner simultaneously disowns
-    * the latch and clears owner_pid. XXX: This assumes that pid_t is
-    * atomic, which isn't guaranteed to be true! In practice, the effective
-    * range of pid_t fits in a 32 bit integer, and so should be atomic. In
-    * the worst case, we might end up signaling wrong process if the right
-    * one disowns the latch just as we fetch owner_pid. Even then, you're
-    * very unlucky if a process with that bogus pid exists.
+    * Fetch owner_pid only once, in case the owner simultaneously disowns the
+    * latch and clears owner_pid. XXX: This assumes that pid_t is atomic,
+    * which isn't guaranteed to be true! In practice, the effective range of
+    * pid_t fits in a 32 bit integer, and so should be atomic. In the worst
+    * case, we might end up signaling wrong process if the right one disowns
+    * the latch just as we fetch owner_pid. Even then, you're very unlucky if
+    * a process with that bogus pid exists.
     */
    owner_pid = latch->owner_pid;
    if (owner_pid == 0)
@@ -351,15 +352,14 @@ latch_sigusr1_handler(void)
 static void
 initSelfPipe(void)
 {
-   int pipefd[2];
+   int         pipefd[2];
 
    /*
     * Set up the self-pipe that allows a signal handler to wake up the
     * select() in WaitLatch. Make the write-end non-blocking, so that
     * SetLatch won't block if the event has already been set many times
-    * filling the kernel buffer. Make the read-end non-blocking too, so
-    * that we can easily clear the pipe by reading until EAGAIN or
-    * EWOULDBLOCK.
+    * filling the kernel buffer. Make the read-end non-blocking too, so that
+    * we can easily clear the pipe by reading until EAGAIN or EWOULDBLOCK.
     */
    if (pipe(pipefd) < 0)
        elog(FATAL, "pipe() failed: %m");
@@ -376,8 +376,8 @@ initSelfPipe(void)
 static void
 sendSelfPipeByte(void)
 {
-   int rc;
-   char dummy = 0;
+   int         rc;
+   char        dummy = 0;
 
 retry:
    rc = write(selfpipe_writefd, &dummy, 1);
@@ -388,16 +388,16 @@ retry:
            goto retry;
 
        /*
-        * If the pipe is full, we don't need to retry, the data that's
-        * there already is enough to wake up WaitLatch.
+        * If the pipe is full, we don't need to retry, the data that's there
+        * already is enough to wake up WaitLatch.
         */
        if (errno == EAGAIN || errno == EWOULDBLOCK)
            return;
 
        /*
-        * Oops, the write() failed for some other reason. We might be in
-        * a signal handler, so it's not safe to elog(). We have no choice
-        * but silently ignore the error.
+        * Oops, the write() failed for some other reason. We might be in a
+        * signal handler, so it's not safe to elog(). We have no choice but
+        * silently ignore the error.
         */
        return;
    }
@@ -408,11 +408,11 @@ static void
 drainSelfPipe(void)
 {
    /*
-    * There shouldn't normally be more than one byte in the pipe, or maybe
-    * few more if multiple processes run SetLatch at the same instant.
+    * There shouldn't normally be more than one byte in the pipe, or maybe a
+    * few more if multiple processes run SetLatch at the same instant.
     */
-   char buf[16];
-   int rc;
+   char        buf[16];
+   int         rc;
 
    for (;;)
    {
@@ -420,9 +420,9 @@ drainSelfPipe(void)
        if (rc < 0)
        {
            if (errno == EAGAIN || errno == EWOULDBLOCK)
-               break;      /* the pipe is empty */
+               break;          /* the pipe is empty */
            else if (errno == EINTR)
-               continue;   /* retry */
+               continue;       /* retry */
            else
                elog(ERROR, "read() on self-pipe failed: %m");
        }
index b58b181ed99ab645cc4d07fd78c2ce94fbedb5d7..98bde14804ebeab684b232e8b8d2741e58d81db7 100644 (file)
@@ -1,7 +1,7 @@
 /*-------------------------------------------------------------------------
  *
  * win32_crashdump.c
- *         Automatic crash dump creation for PostgreSQL on Windows
+ *        Automatic crash dump creation for PostgreSQL on Windows
  *
  * The crashdump feature traps unhandled win32 exceptions produced by the
  * backend, and tries to produce a Windows MiniDump crash
  * http://www.debuginfo.com/articles/effminidumps.html
  */
 
-typedef BOOL (WINAPI *MINIDUMPWRITEDUMP)(HANDLE hProcess, DWORD dwPid, HANDLE hFile, MINIDUMP_TYPE DumpType,
-                                   CONST PMINIDUMP_EXCEPTION_INFORMATION ExceptionParam,
-                                   CONST PMINIDUMP_USER_STREAM_INFORMATION UserStreamParam,
-                                   CONST PMINIDUMP_CALLBACK_INFORMATION CallbackParam
-                                   );
+typedef BOOL (WINAPI * MINIDUMPWRITEDUMP) (HANDLE hProcess, DWORD dwPid, HANDLE hFile, MINIDUMP_TYPE DumpType,
+                       CONST PMINIDUMP_EXCEPTION_INFORMATION ExceptionParam,
+                    CONST PMINIDUMP_USER_STREAM_INFORMATION UserStreamParam,
+                          CONST PMINIDUMP_CALLBACK_INFORMATION CallbackParam
+);
 
 
 /*
@@ -76,24 +76,25 @@ typedef BOOL (WINAPI *MINIDUMPWRITEDUMP)(HANDLE hProcess, DWORD dwPid, HANDLE hF
  * any PostgreSQL functions.
  */
 static LONG WINAPI
-crashDumpHandler(struct _EXCEPTION_POINTERS *pExceptionInfo)
+crashDumpHandler(struct _EXCEPTION_POINTERS * pExceptionInfo)
 {
    /*
-    * We only write crash dumps if the "crashdumps" directory within
-    * the postgres data directory exists.
+    * We only write crash dumps if the "crashdumps" directory within the
+    * postgres data directory exists.
     */
-   DWORD attribs = GetFileAttributesA("crashdumps");
-   if (attribs != INVALID_FILE_ATTRIBUTES && (attribs & FILE_ATTRIBUTE_DIRECTORY) )
+   DWORD       attribs = GetFileAttributesA("crashdumps");
+
+   if (attribs != INVALID_FILE_ATTRIBUTES && (attribs & FILE_ATTRIBUTE_DIRECTORY))
    {
        /* 'crashdumps' exists and is a directory. Try to write a dump' */
-       HMODULE hDll = NULL;
+       HMODULE     hDll = NULL;
        MINIDUMPWRITEDUMP pDump = NULL;
        MINIDUMP_TYPE dumpType;
-       char dumpPath[_MAX_PATH];
-       HANDLE selfProcHandle = GetCurrentProcess();
-       DWORD selfPid = GetProcessId(selfProcHandle);
-       HANDLE dumpFile;
-       DWORD systemTicks;
+       char        dumpPath[_MAX_PATH];
+       HANDLE      selfProcHandle = GetCurrentProcess();
+       DWORD       selfPid = GetProcessId(selfProcHandle);
+       HANDLE      dumpFile;
+       DWORD       systemTicks;
        struct _MINIDUMP_EXCEPTION_INFORMATION ExInfo;
 
        ExInfo.ThreadId = GetCurrentThreadId();
@@ -108,19 +109,18 @@ crashDumpHandler(struct _EXCEPTION_POINTERS *pExceptionInfo)
            return EXCEPTION_CONTINUE_SEARCH;
        }
 
-       pDump = (MINIDUMPWRITEDUMP)GetProcAddress(hDll, "MiniDumpWriteDump");
+       pDump = (MINIDUMPWRITEDUMP) GetProcAddress(hDll, "MiniDumpWriteDump");
 
-       if (pDump==NULL)
+       if (pDump == NULL)
        {
            write_stderr("could not load required functions in dbghelp.dll, cannot write crashdump\n");
            return EXCEPTION_CONTINUE_SEARCH;
        }
 
        /*
-        * Dump as much as we can, except shared memory, code segments,
-        * and memory mapped files.
-        * Exactly what we can dump depends on the version of dbghelp.dll,
-        * see:
+        * Dump as much as we can, except shared memory, code segments, and
+        * memory mapped files. Exactly what we can dump depends on the
+        * version of dbghelp.dll, see:
         * http://msdn.microsoft.com/en-us/library/ms680519(v=VS.85).aspx
         */
        dumpType = MiniDumpNormal | MiniDumpWithHandleData |
@@ -135,25 +135,25 @@ crashDumpHandler(struct _EXCEPTION_POINTERS *pExceptionInfo)
 
        systemTicks = GetTickCount();
        snprintf(dumpPath, _MAX_PATH,
-                "crashdumps\\postgres-pid%0i-%0i.mdmp", selfPid, systemTicks);
-       dumpPath[_MAX_PATH-1] = '\0';
+              "crashdumps\\postgres-pid%0i-%0i.mdmp", selfPid, systemTicks);
+       dumpPath[_MAX_PATH - 1] = '\0';
 
        dumpFile = CreateFile(dumpPath, GENERIC_WRITE, FILE_SHARE_WRITE,
                              NULL, CREATE_ALWAYS, FILE_ATTRIBUTE_NORMAL,
                              NULL);
-       if (dumpFile==INVALID_HANDLE_VALUE)
+       if (dumpFile == INVALID_HANDLE_VALUE)
        {
            write_stderr("could not open crash dump file %s for writing: error code %d\n",
-                   dumpPath, GetLastError());
+                        dumpPath, GetLastError());
            return EXCEPTION_CONTINUE_SEARCH;
        }
 
-       if ((*pDump)(selfProcHandle, selfPid, dumpFile, dumpType, &ExInfo,
-                    NULL, NULL))
+       if ((*pDump) (selfProcHandle, selfPid, dumpFile, dumpType, &ExInfo,
+                     NULL, NULL))
            write_stderr("wrote crash dump to %s\n", dumpPath);
        else
            write_stderr("could not write crash dump to %s: error code %08x\n",
-                   dumpPath, GetLastError());
+                        dumpPath, GetLastError());
 
        CloseHandle(dumpFile);
    }
index 1eb6de9bdb70e509b9f1ee25be722855cfb629d4..e118d96a4bcff85f7e840d04a42449c37f5d81e6 100644 (file)
@@ -27,7 +27,7 @@ typedef struct timerCA
    struct itimerval value;
    HANDLE      event;
    CRITICAL_SECTION crit_sec;
-}  timerCA;
+} timerCA;
 
 static timerCA timerCommArea;
 static HANDLE timerThreadHandle = INVALID_HANDLE_VALUE;
index f42cfef40e76c267841bcaebef4cefc7091cd806..b158300d57291f0a26ac32ca7316bf61acce0bad 100644 (file)
@@ -50,8 +50,7 @@ InitSharedLatch(volatile Latch *latch)
    latch->is_shared = true;
 
    /*
-    * Set up security attributes to specify that the events are
-    * inherited.
+    * Set up security attributes to specify that the events are inherited.
     */
    ZeroMemory(&sa, sizeof(sa));
    sa.nLength = sizeof(sa);
@@ -106,7 +105,7 @@ WaitLatchOrSocket(volatile Latch *latch, SOCKET sock, bool forRead,
    numevents = 2;
    if (sock != PGINVALID_SOCKET && (forRead || forWrite))
    {
-       int     flags = 0;
+       int         flags = 0;
 
        if (forRead)
            flags |= FD_READ;
@@ -135,7 +134,7 @@ WaitLatchOrSocket(volatile Latch *latch, SOCKET sock, bool forRead,
        }
 
        rc = WaitForMultipleObjects(numevents, events, FALSE,
-                               (timeout >= 0) ? (timeout / 1000) : INFINITE);
+                              (timeout >= 0) ? (timeout / 1000) : INFINITE);
        if (rc == WAIT_FAILED)
            elog(ERROR, "WaitForMultipleObjects() failed: error code %d", (int) GetLastError());
        else if (rc == WAIT_TIMEOUT)
@@ -178,7 +177,7 @@ WaitLatchOrSocket(volatile Latch *latch, SOCKET sock, bool forRead,
 void
 SetLatch(volatile Latch *latch)
 {
-   HANDLE handle;
+   HANDLE      handle;
 
    /* Quick exit if already set */
    if (latch->is_set)
@@ -187,21 +186,22 @@ SetLatch(volatile Latch *latch)
    latch->is_set = true;
 
    /*
-    * See if anyone's waiting for the latch. It can be the current process
-    * if we're in a signal handler. Use a local variable here in case the
-    * latch is just disowned between the test and the SetEvent call, and
-    * event field set to NULL.
+    * See if anyone's waiting for the latch. It can be the current process if
+    * we're in a signal handler. Use a local variable here in case the latch
+    * is just disowned between the test and the SetEvent call, and event
+    * field set to NULL.
     *
-    * Fetch handle field only once, in case the owner simultaneously
-    * disowns the latch and clears handle. This assumes that HANDLE is
-    * atomic, which isn't guaranteed to be true! In practice, it should be,
-    * and in the worst case we end up calling SetEvent with a bogus handle,
-    * and SetEvent will return an error with no harm done.
+    * Fetch handle field only once, in case the owner simultaneously disowns
+    * the latch and clears handle. This assumes that HANDLE is atomic, which
+    * isn't guaranteed to be true! In practice, it should be, and in the
+    * worst case we end up calling SetEvent with a bogus handle, and SetEvent
+    * will return an error with no harm done.
     */
    handle = latch->event;
    if (handle)
    {
        SetEvent(handle);
+
        /*
         * Note that we silently ignore any errors. We might be in a signal
         * handler or other critical path where it's not safe to call elog().
index 619facc75260cf6b6d358ca9b8551b4dfeda939d..9fa63a4e6e15ba8e1ede9ef26cf875b7cfb567c4 100644 (file)
@@ -210,7 +210,7 @@ typedef struct WorkerInfoData
    int         wi_cost_delay;
    int         wi_cost_limit;
    int         wi_cost_limit_base;
-} WorkerInfoData;
+}  WorkerInfoData;
 
 typedef struct WorkerInfoData *WorkerInfo;
 
@@ -224,7 +224,7 @@ typedef enum
    AutoVacForkFailed,          /* failed trying to start a worker */
    AutoVacRebalance,           /* rebalance the cost limits */
    AutoVacNumSignals           /* must be last */
-} AutoVacuumSignal;
+}  AutoVacuumSignal;
 
 /*-------------
  * The main autovacuum shmem struct.  On shared memory we store this main
@@ -1527,9 +1527,9 @@ AutoVacWorkerMain(int argc, char *argv[])
    SetConfigOption("statement_timeout", "0", PGC_SUSET, PGC_S_OVERRIDE);
 
    /*
-    * Force synchronous replication off to allow regular maintenance even
-    * if we are waiting for standbys to connect. This is important to
-    * ensure we aren't blocked from performing anti-wraparound tasks.
+    * Force synchronous replication off to allow regular maintenance even if
+    * we are waiting for standbys to connect. This is important to ensure we
+    * aren't blocked from performing anti-wraparound tasks.
     */
    if (synchronous_commit > SYNCHRONOUS_COMMIT_LOCAL_FLUSH)
        SetConfigOption("synchronous_commit", "local", PGC_SUSET, PGC_S_OVERRIDE);
@@ -1690,8 +1690,8 @@ autovac_balance_cost(void)
 {
    /*
     * The idea here is that we ration out I/O equally.  The amount of I/O
-    * that a worker can consume is determined by cost_limit/cost_delay, so
-    * we try to equalize those ratios rather than the raw limit settings.
+    * that a worker can consume is determined by cost_limit/cost_delay, so we
+    * try to equalize those ratios rather than the raw limit settings.
     *
     * note: in cost_limit, zero also means use value from elsewhere, because
     * zero is not a valid value.
@@ -1746,7 +1746,7 @@ autovac_balance_cost(void)
 
            /*
             * We put a lower bound of 1 on the cost_limit, to avoid division-
-            * by-zero in the vacuum code.  Also, in case of roundoff trouble
+            * by-zero in the vacuum code.  Also, in case of roundoff trouble
             * in these calculations, let's be sure we don't ever set
             * cost_limit to more than the base value.
             */
@@ -1785,7 +1785,7 @@ get_database_list(void)
    Relation    rel;
    HeapScanDesc scan;
    HeapTuple   tup;
-   MemoryContext   resultcxt;
+   MemoryContext resultcxt;
 
    /* This is the context that we will allocate our output data in */
    resultcxt = CurrentMemoryContext;
@@ -1807,13 +1807,13 @@ get_database_list(void)
    {
        Form_pg_database pgdatabase = (Form_pg_database) GETSTRUCT(tup);
        avw_dbase  *avdb;
-       MemoryContext   oldcxt;
+       MemoryContext oldcxt;
 
        /*
-        * Allocate our results in the caller's context, not the transaction's.
-        * We do this inside the loop, and restore the original context at the
-        * end, so that leaky things like heap_getnext() are not called in a
-        * potentially long-lived context.
+        * Allocate our results in the caller's context, not the
+        * transaction's. We do this inside the loop, and restore the original
+        * context at the end, so that leaky things like heap_getnext() are
+        * not called in a potentially long-lived context.
         */
        oldcxt = MemoryContextSwitchTo(resultcxt);
 
@@ -2217,9 +2217,9 @@ do_autovacuum(void)
        LWLockRelease(AutovacuumScheduleLock);
 
        /*
-        * Remember the prevailing values of the vacuum cost GUCs.  We have
-        * to restore these at the bottom of the loop, else we'll compute
-        * wrong values in the next iteration of autovac_balance_cost().
+        * Remember the prevailing values of the vacuum cost GUCs.  We have to
+        * restore these at the bottom of the loop, else we'll compute wrong
+        * values in the next iteration of autovac_balance_cost().
         */
        stdVacuumCostDelay = VacuumCostDelay;
        stdVacuumCostLimit = VacuumCostLimit;
index 1b450a802baa90ffdeaa801b67b73928af11ab5c..1f4ac93d8d7b58c84d1e19aa1283583c2c88b94e 100644 (file)
@@ -1077,7 +1077,7 @@ RequestCheckpoint(int flags)
  * to the requests[] queue without checking for duplicates.  The bgwriter
  * will have to eliminate dups internally anyway.  However, if we discover
  * that the queue is full, we make a pass over the entire queue to compact
- * it.  This is somewhat expensive, but the alternative is for the backend
+ * it. This is somewhat expensive, but the alternative is for the backend
  * to perform its own fsync, which is far more expensive in practice.  It
  * is theoretically possible a backend fsync might still be necessary, if
  * the queue is full and contains no duplicate entries.  In that case, we
@@ -1102,13 +1102,13 @@ ForwardFsyncRequest(RelFileNodeBackend rnode, ForkNumber forknum,
 
    /*
     * If the background writer isn't running or the request queue is full,
-    * the backend will have to perform its own fsync request.  But before
+    * the backend will have to perform its own fsync request.  But before
     * forcing that to happen, we can try to compact the background writer
     * request queue.
     */
    if (BgWriterShmem->bgwriter_pid == 0 ||
        (BgWriterShmem->num_requests >= BgWriterShmem->max_requests
-       && !CompactBgwriterRequestQueue()))
+        && !CompactBgwriterRequestQueue()))
    {
        /*
         * Count the subset of writes where backends have to do their own
@@ -1128,12 +1128,12 @@ ForwardFsyncRequest(RelFileNodeBackend rnode, ForkNumber forknum,
 
 /*
  * CompactBgwriterRequestQueue
- *         Remove duplicates from the request queue to avoid backend fsyncs.
+ *     Remove duplicates from the request queue to avoid backend fsyncs.
  *
  * Although a full fsync request queue is not common, it can lead to severe
  * performance problems when it does happen.  So far, this situation has
  * only been observed to occur when the system is under heavy write load,
- * and especially during the "sync" phase of a checkpoint.  Without this
+ * and especially during the "sync" phase of a checkpoint. Without this
  * logic, each backend begins doing an fsync for every block written, which
  * gets very expensive and can slow down the whole system.
  *
@@ -1144,9 +1144,10 @@ ForwardFsyncRequest(RelFileNodeBackend rnode, ForkNumber forknum,
 static bool
 CompactBgwriterRequestQueue()
 {
-   struct BgWriterSlotMapping {
-       BgWriterRequest request;
-       int     slot;
+   struct BgWriterSlotMapping
+   {
+       BgWriterRequest request;
+       int         slot;
    };
 
    int         n,
@@ -1172,7 +1173,7 @@ CompactBgwriterRequestQueue()
    /* Initialize skip_slot array */
    skip_slot = palloc0(sizeof(bool) * BgWriterShmem->num_requests);
 
-   /* 
+   /*
     * The basic idea here is that a request can be skipped if it's followed
     * by a later, identical request.  It might seem more sensible to work
     * backwards from the end of the queue and check whether a request is
@@ -1189,7 +1190,7 @@ CompactBgwriterRequestQueue()
    {
        BgWriterRequest *request;
        struct BgWriterSlotMapping *slotmap;
-       bool    found;
+       bool        found;
 
        request = &BgWriterShmem->requests[n];
        slotmap = hash_search(htab, request, HASH_ENTER, &found);
@@ -1219,8 +1220,8 @@ CompactBgwriterRequestQueue()
        BgWriterShmem->requests[preserve_count++] = BgWriterShmem->requests[n];
    }
    ereport(DEBUG1,
-           (errmsg("compacted fsync request queue from %d entries to %d entries",
-               BgWriterShmem->num_requests, preserve_count)));
+      (errmsg("compacted fsync request queue from %d entries to %d entries",
+              BgWriterShmem->num_requests, preserve_count)));
    BgWriterShmem->num_requests = preserve_count;
 
    /* Cleanup. */
index 5f0db513d277c441f5abe9ca4b94b66855fc2230..5ed6e8337c11fdd599a0deb219e1cb0285228a88 100644 (file)
@@ -1319,7 +1319,7 @@ pgstat_report_analyze(Relation rel, bool adopt_counts,
 /* --------
  * pgstat_report_recovery_conflict() -
  *
- *  Tell the collector about a Hot Standby recovery conflict.
+ * Tell the collector about a Hot Standby recovery conflict.
  * --------
  */
 void
@@ -4075,7 +4075,7 @@ pgstat_recv_resetcounter(PgStat_MsgResetcounter *msg, int len)
    dbentry->functions = NULL;
 
    /*
-    * Reset database-level stats too.  This should match the initialization
+    * Reset database-level stats too.  This should match the initialization
     * code in pgstat_get_db_entry().
     */
    dbentry->n_xact_commit = 0;
@@ -4280,22 +4280,23 @@ pgstat_recv_bgwriter(PgStat_MsgBgWriter *msg, int len)
 /* ----------
  * pgstat_recv_recoveryconflict() -
  *
- *  Process as RECOVERYCONFLICT message.
+ * Process as RECOVERYCONFLICT message.
  * ----------
  */
 static void
 pgstat_recv_recoveryconflict(PgStat_MsgRecoveryConflict *msg, int len)
 {
    PgStat_StatDBEntry *dbentry;
+
    dbentry = pgstat_get_db_entry(msg->m_databaseid, true);
 
    switch (msg->m_reason)
    {
        case PROCSIG_RECOVERY_CONFLICT_DATABASE:
+
            /*
-            * Since we drop the information about the database as soon
-            * as it replicates, there is no point in counting these
-            * conflicts.
+            * Since we drop the information about the database as soon as it
+            * replicates, there is no point in counting these conflicts.
             */
            break;
        case PROCSIG_RECOVERY_CONFLICT_TABLESPACE:
index 93e59258cc514c75ec29a7687e08eea3834b6aad..6e7f66472fd62694001bc7443f3103fdde7f483b 100644 (file)
@@ -385,7 +385,7 @@ typedef struct
    HANDLE      waitHandle;
    HANDLE      procHandle;
    DWORD       procId;
-}  win32_deadchild_waitinfo;
+} win32_deadchild_waitinfo;
 
 HANDLE     PostmasterHandle;
 #endif
@@ -400,7 +400,7 @@ typedef struct
    SOCKET      origsocket;     /* Original socket value, or PGINVALID_SOCKET
                                 * if not a socket */
    WSAPROTOCOL_INFO wsainfo;
-}  InheritableSocket;
+} InheritableSocket;
 #else
 typedef int InheritableSocket;
 #endif
@@ -447,15 +447,15 @@ typedef struct
    char        my_exec_path[MAXPGPATH];
    char        pkglib_path[MAXPGPATH];
    char        ExtraOptions[MAXPGPATH];
-}  BackendParameters;
+} BackendParameters;
 
 static void read_backend_variables(char *id, Port *port);
-static void restore_backend_variables(BackendParameters * param, Port *port);
+static void restore_backend_variables(BackendParameters *param, Port *port);
 
 #ifndef WIN32
-static bool save_backend_variables(BackendParameters * param, Port *port);
+static bool save_backend_variables(BackendParameters *param, Port *port);
 #else
-static bool save_backend_variables(BackendParameters * param, Port *port,
+static bool save_backend_variables(BackendParameters *param, Port *port,
                       HANDLE childProcess, pid_t childPid);
 #endif
 
@@ -1936,9 +1936,9 @@ canAcceptConnections(void)
     *
     * In state PM_WAIT_BACKUP only superusers can connect (this must be
     * allowed so that a superuser can end online backup mode); we return
-    * CAC_WAITBACKUP code to indicate that this must be checked later.
-    * Note that neither CAC_OK nor CAC_WAITBACKUP can safely be returned
-    * until we have checked for too many children.
+    * CAC_WAITBACKUP code to indicate that this must be checked later. Note
+    * that neither CAC_OK nor CAC_WAITBACKUP can safely be returned until we
+    * have checked for too many children.
     */
    if (pmState != PM_RUN)
    {
@@ -1949,10 +1949,10 @@ canAcceptConnections(void)
        else if (!FatalError &&
                 (pmState == PM_STARTUP ||
                  pmState == PM_RECOVERY))
-           return CAC_STARTUP;     /* normal startup */
+           return CAC_STARTUP; /* normal startup */
        else if (!FatalError &&
                 pmState == PM_HOT_STANDBY)
-           result = CAC_OK;        /* connection OK during hot standby */
+           result = CAC_OK;    /* connection OK during hot standby */
        else
            return CAC_RECOVERY;    /* else must be crash recovery */
    }
@@ -2004,10 +2004,10 @@ ConnCreate(int serverFd)
 
    /*
     * Precompute password salt values to use for this connection. It's
-    * slightly annoying to do this long in advance of knowing whether
-    * we'll need 'em or not, but we must do the random() calls before we
-    * fork, not after.  Else the postmaster's random sequence won't get
-    * advanced, and all backends would end up using the same salt...
+    * slightly annoying to do this long in advance of knowing whether we'll
+    * need 'em or not, but we must do the random() calls before we fork, not
+    * after.  Else the postmaster's random sequence won't get advanced, and
+    * all backends would end up using the same salt...
     */
    RandomSalt(port->md5Salt);
 
@@ -2611,12 +2611,13 @@ CleanupBackend(int pid,
     * the active backend list.
     */
 #ifdef WIN32
+
    /*
-    * On win32, also treat ERROR_WAIT_NO_CHILDREN (128) as nonfatal
-    * case, since that sometimes happens under load when the process fails
-    * to start properly (long before it starts using shared memory).
-    * Microsoft reports it is related to mutex failure:
-    *    http://archives.postgresql.org/pgsql-hackers/2010-09/msg00790.php
+    * On win32, also treat ERROR_WAIT_NO_CHILDREN (128) as nonfatal case,
+    * since that sometimes happens under load when the process fails to start
+    * properly (long before it starts using shared memory). Microsoft reports
+    * it is related to mutex failure:
+    * http://archives.postgresql.org/pgsql-hackers/2010-09/msg00790.php
     */
    if (exitstatus == ERROR_WAIT_NO_CHILDREN)
    {
@@ -3086,11 +3087,11 @@ PostmasterStateMachine(void)
    }
 
    /*
-    * If recovery failed, or the user does not want an automatic restart after
-    * backend crashes, wait for all non-syslogger children to exit, and then
-    * exit postmaster. We don't try to reinitialize when recovery fails,
-    * because more than likely it will just fail again and we will keep trying
-    * forever.
+    * If recovery failed, or the user does not want an automatic restart
+    * after backend crashes, wait for all non-syslogger children to exit, and
+    * then exit postmaster. We don't try to reinitialize when recovery fails,
+    * because more than likely it will just fail again and we will keep
+    * trying forever.
     */
    if (pmState == PM_NO_CHILDREN && (RecoveryError || !restart_after_crash))
        ExitPostmaster(1);
@@ -3169,9 +3170,8 @@ SignalSomeChildren(int signal, int target)
            continue;
 
        /*
-        * Since target == BACKEND_TYPE_ALL is the most common case,
-        * we test it first and avoid touching shared memory for
-        * every child.
+        * Since target == BACKEND_TYPE_ALL is the most common case, we test
+        * it first and avoid touching shared memory for every child.
         */
        if (target != BACKEND_TYPE_ALL)
        {
@@ -4409,9 +4409,8 @@ CountChildren(int target)
            continue;
 
        /*
-        * Since target == BACKEND_TYPE_ALL is the most common case,
-        * we test it first and avoid touching shared memory for
-        * every child.
+        * Since target == BACKEND_TYPE_ALL is the most common case, we test
+        * it first and avoid touching shared memory for every child.
         */
        if (target != BACKEND_TYPE_ALL)
        {
@@ -4686,19 +4685,19 @@ extern pgsocket pgStatSock;
 #define read_inheritable_socket(dest, src) (*(dest) = *(src))
 #else
 static bool write_duplicated_handle(HANDLE *dest, HANDLE src, HANDLE child);
-static bool write_inheritable_socket(InheritableSocket * dest, SOCKET src,
+static bool write_inheritable_socket(InheritableSocket *dest, SOCKET src,
                         pid_t childPid);
-static void read_inheritable_socket(SOCKET * dest, InheritableSocket * src);
+static void read_inheritable_socket(SOCKET *dest, InheritableSocket *src);
 #endif
 
 
 /* Save critical backend variables into the BackendParameters struct */
 #ifndef WIN32
 static bool
-save_backend_variables(BackendParameters * param, Port *port)
+save_backend_variables(BackendParameters *param, Port *port)
 #else
 static bool
-save_backend_variables(BackendParameters * param, Port *port,
+save_backend_variables(BackendParameters *param, Port *port,
                       HANDLE childProcess, pid_t childPid)
 #endif
 {
@@ -4790,7 +4789,7 @@ write_duplicated_handle(HANDLE *dest, HANDLE src, HANDLE childProcess)
  * straight socket inheritance.
  */
 static bool
-write_inheritable_socket(InheritableSocket * dest, SOCKET src, pid_t childpid)
+write_inheritable_socket(InheritableSocket *dest, SOCKET src, pid_t childpid)
 {
    dest->origsocket = src;
    if (src != 0 && src != PGINVALID_SOCKET)
@@ -4811,7 +4810,7 @@ write_inheritable_socket(InheritableSocket * dest, SOCKET src, pid_t childpid)
  * Read a duplicate socket structure back, and get the socket descriptor.
  */
 static void
-read_inheritable_socket(SOCKET * dest, InheritableSocket * src)
+read_inheritable_socket(SOCKET *dest, InheritableSocket *src)
 {
    SOCKET      s;
 
@@ -4920,7 +4919,7 @@ read_backend_variables(char *id, Port *port)
 
 /* Restore critical backend variables from the BackendParameters struct */
 static void
-restore_backend_variables(BackendParameters * param, Port *port)
+restore_backend_variables(BackendParameters *param, Port *port)
 {
    memcpy(port, &param->port, sizeof(Port));
    read_inheritable_socket(&port->sock, &param->portsocket);
index f2eb0ad02b16d9012f5535367d99f7b9779c480e..a00b70f934ea0c3e59c3f4d5ddd198cb7858c435 100644 (file)
@@ -137,7 +137,7 @@ static void process_pipe_input(char *logbuffer, int *bytes_in_logbuffer);
 static void flush_pipe_input(char *logbuffer, int *bytes_in_logbuffer);
 static void open_csvlogfile(void);
 static FILE *logfile_open(const char *filename, const char *mode,
-                         bool allow_errors);
+            bool allow_errors);
 
 #ifdef WIN32
 static unsigned int __stdcall pipeThread(void *arg);
@@ -1017,8 +1017,8 @@ logfile_open(const char *filename, const char *mode, bool allow_errors)
    mode_t      oumask;
 
    /*
-    * Note we do not let Log_file_mode disable IWUSR, since we certainly
-    * want to be able to write the files ourselves.
+    * Note we do not let Log_file_mode disable IWUSR, since we certainly want
+    * to be able to write the files ourselves.
     */
    oumask = umask((mode_t) ((~(Log_file_mode | S_IWUSR)) & (S_IRWXU | S_IRWXG | S_IRWXO)));
    fh = fopen(filename, mode);
@@ -1035,7 +1035,7 @@ logfile_open(const char *filename, const char *mode, bool allow_errors)
    }
    else
    {
-       int     save_errno = errno;
+       int         save_errno = errno;
 
        ereport(allow_errors ? LOG : FATAL,
                (errcode_for_file_access(),
index a93e99011d141893bf165d62d4efe28684127f6e..6ed466a9d9741695668fac9e8adcaa883e6e29a6 100644 (file)
@@ -238,7 +238,7 @@ struct vars
 #define NOERR() {if (ISERR()) return;} /* if error seen, return */
 #define NOERRN()   {if (ISERR()) return NULL;} /* NOERR with retval */
 #define NOERRZ()   {if (ISERR()) return 0;}    /* NOERR with retval */
-#define INSIST(c, e) do { if (!(c)) ERR(e); } while (0)    /* error if c false */
+#define INSIST(c, e) do { if (!(c)) ERR(e); } while (0) /* error if c false */
 #define NOTE(b) (v->re->re_info |= (b)) /* note visible condition */
 #define EMPTYARC(x, y) newarc(v->nfa, EMPTY, 0, x, y)
 
index d21568cb21562928c70aa6dfbbb00278ce181634..030a283e817a5dd455d0b73295dabd1f89968fad 100644 (file)
@@ -39,7 +39,7 @@ typedef struct
    bool        fastcheckpoint;
    bool        nowait;
    bool        includewal;
-}  basebackup_options;
+} basebackup_options;
 
 
 static int64 sendDir(char *path, int basepathlen, bool sizeonly);
@@ -67,7 +67,7 @@ typedef struct
    char       *oid;
    char       *path;
    int64       size;
-}  tablespaceinfo;
+} tablespaceinfo;
 
 
 /*
@@ -119,7 +119,7 @@ perform_base_backup(basebackup_options *opt, DIR *tblspcdir)
            if (readlink(fullpath, linkpath, sizeof(linkpath) - 1) == -1)
            {
                ereport(WARNING,
-                       (errmsg("unable to read symbolic link %s: %m", fullpath)));
+                 (errmsg("unable to read symbolic link %s: %m", fullpath)));
                continue;
            }
 
@@ -219,10 +219,11 @@ perform_base_backup(basebackup_options *opt, DIR *tblspcdir)
                ptr.xrecoff = logseg * XLogSegSize + TAR_SEND_SIZE * i;
 
                /*
-                *  Some old compilers, e.g. gcc 2.95.3/x86, think that passing
-                *  a struct in the same function as a longjump might clobber
-                *  a variable.  bjm 2011-02-04
-                *  http://lists.apple.com/archives/xcode-users/2003/Dec//msg00051.html
+                * Some old compilers, e.g. gcc 2.95.3/x86, think that passing
+                * a struct in the same function as a longjump might clobber a
+                * variable.  bjm 2011-02-04
+                * http://lists.apple.com/archives/xcode-users/2003/Dec//msg000
+                * 51.html
                 */
                XLogRead(buf, ptr, TAR_SEND_SIZE);
                if (pq_putmessage('d', buf, TAR_SEND_SIZE))
@@ -494,13 +495,14 @@ static void
 sendFileWithContent(const char *filename, const char *content)
 {
    struct stat statbuf;
-   int pad, len;
+   int         pad,
+               len;
 
    len = strlen(content);
 
    /*
-    * Construct a stat struct for the backup_label file we're injecting
-    * in the tar.
+    * Construct a stat struct for the backup_label file we're injecting in
+    * the tar.
     */
    /* Windows doesn't have the concept of uid and gid */
 #ifdef WIN32
@@ -522,7 +524,8 @@ sendFileWithContent(const char *filename, const char *content)
    pad = ((len + 511) & ~511) - len;
    if (pad > 0)
    {
-       char buf[512];
+       char        buf[512];
+
        MemSet(buf, 0, pad);
        pq_putmessage('d', buf, pad);
    }
@@ -564,13 +567,13 @@ sendDir(char *path, int basepathlen, bool sizeonly)
            continue;
 
        /*
-        * Check if the postmaster has signaled us to exit, and abort
-        * with an error in that case. The error handler further up
-        * will call do_pg_abort_backup() for us.
+        * Check if the postmaster has signaled us to exit, and abort with an
+        * error in that case. The error handler further up will call
+        * do_pg_abort_backup() for us.
         */
        if (walsender_shutdown_requested || walsender_ready_to_stop)
            ereport(ERROR,
-                   (errmsg("shutdown requested, aborting active base backup")));
+               (errmsg("shutdown requested, aborting active base backup")));
 
        snprintf(pathbuf, MAXPGPATH, "%s/%s", path, de->d_name);
 
@@ -707,7 +710,7 @@ _tarChecksum(char *header)
 
 /* Given the member, write the TAR header & send the file */
 static void
-sendFile(char *readfilename, char *tarfilename, struct stat *statbuf)
+sendFile(char *readfilename, char *tarfilename, struct stat * statbuf)
 {
    FILE       *fp;
    char        buf[TAR_SEND_SIZE];
@@ -737,7 +740,7 @@ sendFile(char *readfilename, char *tarfilename, struct stat *statbuf)
        /* Send the chunk as a CopyData message */
        if (pq_putmessage('d', buf, cnt))
            ereport(ERROR,
-                   (errmsg("base backup could not send data, aborting backup")));
+              (errmsg("base backup could not send data, aborting backup")));
 
        len += cnt;
 
index 192aac9aea3fd6582710af5c3786dd3baf505889..1d4df8a4488c8900e82ce5f586df174f1940e62a 100644 (file)
@@ -63,7 +63,7 @@
 #include "utils/ps_status.h"
 
 /* User-settable parameters for sync rep */
-char   *SyncRepStandbyNames;
+char      *SyncRepStandbyNames;
 
 #define SyncStandbysDefined() \
    (SyncRepStandbyNames != NULL && SyncRepStandbyNames[0] != '\0')
@@ -73,7 +73,8 @@ static bool announce_next_takeover = true;
 static void SyncRepQueueInsert(void);
 static void SyncRepCancelWait(void);
 
-static int SyncRepGetStandbyPriority(void);
+static int SyncRepGetStandbyPriority(void);
+
 #ifdef USE_ASSERT_CHECKING
 static bool SyncRepQueueIsOrderedByLSN(void);
 #endif
@@ -96,13 +97,13 @@ static bool SyncRepQueueIsOrderedByLSN(void);
 void
 SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
 {
-   char        *new_status = NULL;
+   char       *new_status = NULL;
    const char *old_status;
 
    /*
-    * Fast exit if user has not requested sync replication, or
-    * there are no sync replication standby names defined.
-    * Note that those standbys don't need to be connected.
+    * Fast exit if user has not requested sync replication, or there are no
+    * sync replication standby names defined. Note that those standbys don't
+    * need to be connected.
     */
    if (!SyncRepRequested() || !SyncStandbysDefined())
        return;
@@ -117,12 +118,12 @@ SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
    Assert(MyProc->syncRepState == SYNC_REP_NOT_WAITING);
 
    /*
-    * We don't wait for sync rep if WalSndCtl->sync_standbys_defined is
-    * not set.  See SyncRepUpdateSyncStandbysDefined.
+    * We don't wait for sync rep if WalSndCtl->sync_standbys_defined is not
+    * set.  See SyncRepUpdateSyncStandbysDefined.
     *
-    * Also check that the standby hasn't already replied. Unlikely
-    * race condition but we'll be fetching that cache line anyway
-    * so its likely to be a low cost check.
+    * Also check that the standby hasn't already replied. Unlikely race
+    * condition but we'll be fetching that cache line anyway so its likely to
+    * be a low cost check.
     */
    if (!WalSndCtl->sync_standbys_defined ||
        XLByteLE(XactCommitLSN, WalSndCtl->lsn))
@@ -163,12 +164,12 @@ SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
     */
    for (;;)
    {
-       int syncRepState;
+       int         syncRepState;
 
        /*
-        * Wait on latch for up to 60 seconds. This allows us to
-        * check for postmaster death regularly while waiting.
-        * Note that timeout here does not necessarily release from loop.
+        * Wait on latch for up to 60 seconds. This allows us to check for
+        * postmaster death regularly while waiting. Note that timeout here
+        * does not necessarily release from loop.
         */
        WaitLatch(&MyProc->waitLatch, 60000000L);
 
@@ -176,12 +177,13 @@ SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
        ResetLatch(&MyProc->waitLatch);
 
        /*
-        * Try checking the state without the lock first.  There's no guarantee
-        * that we'll read the most up-to-date value, so if it looks like we're
-        * still waiting, recheck while holding the lock.  But if it looks like
-        * we're done, we must really be done, because once walsender changes
-        * the state to SYNC_REP_WAIT_COMPLETE, it will never update it again,
-        * so we can't be seeing a stale value in that case.
+        * Try checking the state without the lock first.  There's no
+        * guarantee that we'll read the most up-to-date value, so if it looks
+        * like we're still waiting, recheck while holding the lock.  But if
+        * it looks like we're done, we must really be done, because once
+        * walsender changes the state to SYNC_REP_WAIT_COMPLETE, it will
+        * never update it again, so we can't be seeing a stale value in that
+        * case.
         */
        syncRepState = MyProc->syncRepState;
        if (syncRepState == SYNC_REP_WAITING)
@@ -195,16 +197,15 @@ SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
 
        /*
         * If a wait for synchronous replication is pending, we can neither
-        * acknowledge the commit nor raise ERROR or FATAL.  The latter
-        * would lead the client to believe that that the transaction
-        * aborted, which is not true: it's already committed locally.
-        * The former is no good either: the client has requested
-        * synchronous replication, and is entitled to assume that an
-        * acknowledged commit is also replicated, which may not be true.
-        * So in this case we issue a WARNING (which some clients may
-        * be able to interpret) and shut off further output.  We do NOT
-        * reset ProcDiePending, so that the process will die after the
-        * commit is cleaned up.
+        * acknowledge the commit nor raise ERROR or FATAL.  The latter would
+        * lead the client to believe that that the transaction aborted, which
+        * is not true: it's already committed locally. The former is no good
+        * either: the client has requested synchronous replication, and is
+        * entitled to assume that an acknowledged commit is also replicated,
+        * which may not be true. So in this case we issue a WARNING (which
+        * some clients may be able to interpret) and shut off further output.
+        * We do NOT reset ProcDiePending, so that the process will die after
+        * the commit is cleaned up.
         */
        if (ProcDiePending)
        {
@@ -220,8 +221,8 @@ SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
        /*
         * It's unclear what to do if a query cancel interrupt arrives.  We
         * can't actually abort at this point, but ignoring the interrupt
-        * altogether is not helpful, so we just terminate the wait with
-        * suitable warning.
+        * altogether is not helpful, so we just terminate the wait with a
+        * suitable warning.
         */
        if (QueryCancelPending)
        {
@@ -234,8 +235,9 @@ SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
        }
 
        /*
-        * If the postmaster dies, we'll probably never get an acknowledgement,
-        * because all the wal sender processes will exit.  So just bail out.
+        * If the postmaster dies, we'll probably never get an
+        * acknowledgement, because all the wal sender processes will exit.
+        * So just bail out.
         */
        if (!PostmasterIsAlive(true))
        {
@@ -274,7 +276,7 @@ SyncRepWaitForLSN(XLogRecPtr XactCommitLSN)
 static void
 SyncRepQueueInsert(void)
 {
-   PGPROC  *proc;
+   PGPROC     *proc;
 
    proc = (PGPROC *) SHMQueuePrev(&(WalSndCtl->SyncRepQueue),
                                   &(WalSndCtl->SyncRepQueue),
@@ -283,8 +285,8 @@ SyncRepQueueInsert(void)
    while (proc)
    {
        /*
-        * Stop at the queue element that we should after to
-        * ensure the queue is ordered by LSN.
+        * Stop at the queue element that we should after to ensure the queue
+        * is ordered by LSN.
         */
        if (XLByteLT(proc->waitLSN, MyProc->waitLSN))
            break;
@@ -339,7 +341,7 @@ SyncRepCleanupAtProcExit(int code, Datum arg)
 void
 SyncRepInitConfig(void)
 {
-   int priority;
+   int         priority;
 
    /*
     * Determine if we are a potential sync standby and remember the result
@@ -352,8 +354,8 @@ SyncRepInitConfig(void)
        MyWalSnd->sync_standby_priority = priority;
        LWLockRelease(SyncRepLock);
        ereport(DEBUG1,
-               (errmsg("standby \"%s\" now has synchronous standby priority %u",
-                       application_name, priority)));
+           (errmsg("standby \"%s\" now has synchronous standby priority %u",
+                   application_name, priority)));
    }
 }
 
@@ -369,24 +371,24 @@ SyncRepReleaseWaiters(void)
 {
    volatile WalSndCtlData *walsndctl = WalSndCtl;
    volatile WalSnd *syncWalSnd = NULL;
-   int         numprocs = 0;
+   int         numprocs = 0;
    int         priority = 0;
    int         i;
 
    /*
     * If this WALSender is serving a standby that is not on the list of
-    * potential standbys then we have nothing to do. If we are still
-    * starting up or still running base backup, then leave quickly also.
+    * potential standbys then we have nothing to do. If we are still starting
+    * up or still running base backup, then leave quickly also.
     */
    if (MyWalSnd->sync_standby_priority == 0 ||
        MyWalSnd->state < WALSNDSTATE_STREAMING)
        return;
 
    /*
-    * We're a potential sync standby. Release waiters if we are the
-    * highest priority standby. If there are multiple standbys with
-    * same priorities then we use the first mentioned standby.
-    * If you change this, also change pg_stat_get_wal_senders().
+    * We're a potential sync standby. Release waiters if we are the highest
+    * priority standby. If there are multiple standbys with same priorities
+    * then we use the first mentioned standby. If you change this, also
+    * change pg_stat_get_wal_senders().
     */
    LWLockAcquire(SyncRepLock, LW_EXCLUSIVE);
 
@@ -400,8 +402,8 @@ SyncRepReleaseWaiters(void)
            (priority == 0 ||
             priority > walsnd->sync_standby_priority))
        {
-            priority = walsnd->sync_standby_priority;
-            syncWalSnd = walsnd;
+           priority = walsnd->sync_standby_priority;
+           syncWalSnd = walsnd;
        }
    }
 
@@ -423,8 +425,8 @@ SyncRepReleaseWaiters(void)
    if (XLByteLT(walsndctl->lsn, MyWalSnd->flush))
    {
        /*
-        * Set the lsn first so that when we wake backends they will
-        * release up to this location.
+        * Set the lsn first so that when we wake backends they will release
+        * up to this location.
         */
        walsndctl->lsn = MyWalSnd->flush;
        numprocs = SyncRepWakeQueue(false);
@@ -433,9 +435,9 @@ SyncRepReleaseWaiters(void)
    LWLockRelease(SyncRepLock);
 
    elog(DEBUG3, "released %d procs up to %X/%X",
-                   numprocs,
-                   MyWalSnd->flush.xlogid,
-                   MyWalSnd->flush.xrecoff);
+        numprocs,
+        MyWalSnd->flush.xlogid,
+        MyWalSnd->flush.xrecoff);
 
    /*
     * If we are managing the highest priority standby, though we weren't
@@ -502,7 +504,7 @@ SyncRepGetStandbyPriority(void)
 
 /*
  * Walk queue from head.  Set the state of any backends that need to be woken,
- * remove them from the queue, and then wake them.  Pass all = true to wake
+ * remove them from the queue, and then wake them. Pass all = true to wake
  * whole queue; otherwise, just wake up to the walsender's LSN.
  *
  * Must hold SyncRepLock.
@@ -511,9 +513,9 @@ int
 SyncRepWakeQueue(bool all)
 {
    volatile WalSndCtlData *walsndctl = WalSndCtl;
-   PGPROC  *proc = NULL;
-   PGPROC  *thisproc = NULL;
-   int     numprocs = 0;
+   PGPROC     *proc = NULL;
+   PGPROC     *thisproc = NULL;
+   int         numprocs = 0;
 
    Assert(SyncRepQueueIsOrderedByLSN());
 
@@ -539,8 +541,8 @@ SyncRepWakeQueue(bool all)
                                       offsetof(PGPROC, syncRepLinks));
 
        /*
-        * Set state to complete; see SyncRepWaitForLSN() for discussion
-        * of the various states.
+        * Set state to complete; see SyncRepWaitForLSN() for discussion of
+        * the various states.
         */
        thisproc->syncRepState = SYNC_REP_WAIT_COMPLETE;
 
@@ -603,8 +605,8 @@ SyncRepUpdateSyncStandbysDefined(void)
 static bool
 SyncRepQueueIsOrderedByLSN(void)
 {
-   PGPROC  *proc = NULL;
-   XLogRecPtr lastLSN;
+   PGPROC     *proc = NULL;
+   XLogRecPtr  lastLSN;
 
    lastLSN.xlogid = 0;
    lastLSN.xrecoff = 0;
@@ -616,8 +618,8 @@ SyncRepQueueIsOrderedByLSN(void)
    while (proc)
    {
        /*
-        * Check the queue is ordered by LSN and that multiple
-        * procs don't have matching LSNs
+        * Check the queue is ordered by LSN and that multiple procs don't
+        * have matching LSNs
         */
        if (XLByteLE(proc->waitLSN, lastLSN))
            return false;
@@ -662,8 +664,8 @@ check_synchronous_standby_names(char **newval, void **extra, GucSource source)
     * Any additional validation of standby names should go here.
     *
     * Don't attempt to set WALSender priority because this is executed by
-    * postmaster at startup, not WALSender, so the application_name is
-    * not yet correctly set.
+    * postmaster at startup, not WALSender, so the application_name is not
+    * yet correctly set.
     */
 
    pfree(rawstring);
index f6259e4e30fcccd79248262be25b1044db1956f1..471c844ab2a7d539467b80471c2209228fe57a7f 100644 (file)
@@ -94,8 +94,8 @@ static struct
    XLogRecPtr  Flush;          /* last byte + 1 flushed in the standby */
 }  LogstreamResult;
 
-static StandbyReplyMessage reply_message;
-static StandbyHSFeedbackMessage    feedback_message;
+static StandbyReplyMessage reply_message;
+static StandbyHSFeedbackMessage feedback_message;
 
 /*
  * About SIGTERM handling:
@@ -329,8 +329,8 @@ WalReceiverMain(void)
        else
        {
            /*
-            * We didn't receive anything new, but send a status update to
-            * the master anyway, to report any progress in applying WAL.
+            * We didn't receive anything new, but send a status update to the
+            * master anyway, to report any progress in applying WAL.
             */
            XLogWalRcvSendReply();
            XLogWalRcvSendHSFeedback();
@@ -595,7 +595,7 @@ static void
 XLogWalRcvSendReply(void)
 {
    char        buf[sizeof(StandbyReplyMessage) + 1];
-   TimestampTz now;
+   TimestampTz now;
 
    /*
     * If the user doesn't want status to be reported to the master, be sure
@@ -619,7 +619,7 @@ XLogWalRcvSendReply(void)
    if (XLByteEQ(reply_message.write, LogstreamResult.Write)
        && XLByteEQ(reply_message.flush, LogstreamResult.Flush)
        && !TimestampDifferenceExceeds(reply_message.sendTime, now,
-           wal_receiver_status_interval * 1000))
+                                      wal_receiver_status_interval * 1000))
        return;
 
    /* Construct a new message */
@@ -629,9 +629,9 @@ XLogWalRcvSendReply(void)
    reply_message.sendTime = now;
 
    elog(DEBUG2, "sending write %X/%X flush %X/%X apply %X/%X",
-                reply_message.write.xlogid, reply_message.write.xrecoff,
-                reply_message.flush.xlogid, reply_message.flush.xrecoff,
-                reply_message.apply.xlogid, reply_message.apply.xrecoff);
+        reply_message.write.xlogid, reply_message.write.xrecoff,
+        reply_message.flush.xlogid, reply_message.flush.xrecoff,
+        reply_message.apply.xlogid, reply_message.apply.xrecoff);
 
    /* Prepend with the message type and send it. */
    buf[0] = 'r';
@@ -646,11 +646,11 @@ XLogWalRcvSendReply(void)
 static void
 XLogWalRcvSendHSFeedback(void)
 {
-   char            buf[sizeof(StandbyHSFeedbackMessage) + 1];
-   TimestampTz     now;
-   TransactionId   nextXid;
-   uint32          nextEpoch;
-   TransactionId   xmin;
+   char        buf[sizeof(StandbyHSFeedbackMessage) + 1];
+   TimestampTz now;
+   TransactionId nextXid;
+   uint32      nextEpoch;
+   TransactionId xmin;
 
    /*
     * If the user doesn't want status to be reported to the master, be sure
@@ -666,26 +666,25 @@ XLogWalRcvSendHSFeedback(void)
     * Send feedback at most once per wal_receiver_status_interval.
     */
    if (!TimestampDifferenceExceeds(feedback_message.sendTime, now,
-           wal_receiver_status_interval * 1000))
+                                   wal_receiver_status_interval * 1000))
        return;
 
    /*
-    * If Hot Standby is not yet active there is nothing to send.
-    * Check this after the interval has expired to reduce number of
-    * calls.
+    * If Hot Standby is not yet active there is nothing to send. Check this
+    * after the interval has expired to reduce number of calls.
     */
    if (!HotStandbyActive())
        return;
 
    /*
-    * Make the expensive call to get the oldest xmin once we are
-    * certain everything else has been checked.
+    * Make the expensive call to get the oldest xmin once we are certain
+    * everything else has been checked.
     */
    xmin = GetOldestXmin(true, false);
 
    /*
-    * Get epoch and adjust if nextXid and oldestXmin are different
-    * sides of the epoch boundary.
+    * Get epoch and adjust if nextXid and oldestXmin are different sides of
+    * the epoch boundary.
     */
    GetNextXidAndEpoch(&nextXid, &nextEpoch);
    if (nextXid < xmin)
@@ -699,8 +698,8 @@ XLogWalRcvSendHSFeedback(void)
    feedback_message.epoch = nextEpoch;
 
    elog(DEBUG2, "sending hot standby feedback xmin %u epoch %u",
-                feedback_message.xmin,
-                feedback_message.epoch);
+        feedback_message.xmin,
+        feedback_message.epoch);
 
    /* Prepend with the message type and send it. */
    buf[0] = 'h';
index 48ab503d893ab991d2173f1d515e4fd93a449eda..587949bfdb9cdb927bce388ba87121e98ae60623 100644 (file)
@@ -200,8 +200,8 @@ RequestXLogStreaming(XLogRecPtr recptr, const char *conninfo)
    walrcv->startTime = now;
 
    /*
-    * If this is the first startup of walreceiver, we initialize
-    * receivedUpto and latestChunkStart to receiveStart.
+    * If this is the first startup of walreceiver, we initialize receivedUpto
+    * and latestChunkStart to receiveStart.
     */
    if (walrcv->receiveStart.xlogid == 0 &&
        walrcv->receiveStart.xrecoff == 0)
index 1c11e7ff7a21e24aa5056b630bef711dd1d22402..af3c95a78b8f825b055725fe6817d1c568e36d51 100644 (file)
 WalSndCtlData *WalSndCtl = NULL;
 
 /* My slot in the shared memory array */
-WalSnd *MyWalSnd = NULL;
+WalSnd    *MyWalSnd = NULL;
 
 /* Global state */
 bool       am_walsender = false;       /* Am I a walsender process ? */
 
 /* User-settable parameters for walsender */
 int            max_wal_senders = 0;    /* the maximum number of concurrent walsenders */
-int            WalSndDelay = 1000; /* max sleep time between some actions */
-int            replication_timeout = 60 * 1000;    /* maximum time to send one WAL data message */
+int            WalSndDelay = 1000; /* max sleep time between some actions */
+int            replication_timeout = 60 * 1000;    /* maximum time to send one
+                                                * WAL data message */
 
 /*
  * These variables are used similarly to openLogFile/Id/Seg/Off,
@@ -121,7 +122,7 @@ static void WalSndHandshake(void);
 static void WalSndKill(int code, Datum arg);
 static void XLogSend(char *msgbuf, bool *caughtup);
 static void IdentifySystem(void);
-static void StartReplication(StartReplicationCmd * cmd);
+static void StartReplication(StartReplicationCmd *cmd);
 static void ProcessStandbyMessage(void);
 static void ProcessStandbyReplyMessage(void);
 static void ProcessStandbyHSFeedbackMessage(void);
@@ -281,8 +282,8 @@ IdentifySystem(void)
    XLogRecPtr  logptr;
 
    /*
-    * Reply with a result set with one row, three columns. First col is system
-    * ID, second is timeline ID, and third is current xlog location.
+    * Reply with a result set with one row, three columns. First col is
+    * system ID, second is timeline ID, and third is current xlog location.
     */
 
    snprintf(sysid, sizeof(sysid), UINT64_FORMAT,
@@ -348,17 +349,16 @@ IdentifySystem(void)
  * START_REPLICATION
  */
 static void
-StartReplication(StartReplicationCmd * cmd)
+StartReplication(StartReplicationCmd *cmd)
 {
    StringInfoData buf;
 
    /*
-    * Let postmaster know that we're streaming. Once we've declared us as
-    * a WAL sender process, postmaster will let us outlive the bgwriter and
-    * kill us last in the shutdown sequence, so we get a chance to stream
-    * all remaining WAL at shutdown, including the shutdown checkpoint.
-    * Note that there's no going back, and we mustn't write any WAL records
-    * after this.
+    * Let postmaster know that we're streaming. Once we've declared us as a
+    * WAL sender process, postmaster will let us outlive the bgwriter and
+    * kill us last in the shutdown sequence, so we get a chance to stream all
+    * remaining WAL at shutdown, including the shutdown checkpoint. Note that
+    * there's no going back, and we mustn't write any WAL records after this.
     */
    MarkPostmasterChildWalSender();
    SendPostmasterSignal(PMSIGNAL_ADVANCE_STATE_MACHINE);
@@ -383,8 +383,8 @@ StartReplication(StartReplicationCmd * cmd)
     * For some applications, for example, synchronous replication, it is
     * important to have a clear state for this initial catchup mode, so we
     * can trigger actions when we change streaming state later. We may stay
-    * in this state for a long time, which is exactly why we want to be
-    * able to monitor whether or not we are still here.
+    * in this state for a long time, which is exactly why we want to be able
+    * to monitor whether or not we are still here.
     */
    WalSndSetState(WALSNDSTATE_CATCHUP);
 
@@ -476,7 +476,7 @@ ProcessRepliesIfAny(void)
 {
    unsigned char firstchar;
    int         r;
-   int     received = false;
+   int         received = false;
 
    for (;;)
    {
@@ -519,9 +519,9 @@ ProcessRepliesIfAny(void)
                                firstchar)));
        }
    }
+
    /*
-    * Save the last reply timestamp if we've received at least
-    * one reply.
+    * Save the last reply timestamp if we've received at least one reply.
     */
    if (received)
        last_reply_timestamp = GetCurrentTimestamp();
@@ -533,7 +533,7 @@ ProcessRepliesIfAny(void)
 static void
 ProcessStandbyMessage(void)
 {
-   char msgtype;
+   char        msgtype;
 
    resetStringInfo(&reply_message);
 
@@ -577,7 +577,7 @@ ProcessStandbyMessage(void)
 static void
 ProcessStandbyReplyMessage(void)
 {
-   StandbyReplyMessage reply;
+   StandbyReplyMessage reply;
 
    pq_copymsgbytes(&reply_message, (char *) &reply, sizeof(StandbyReplyMessage));
 
@@ -587,8 +587,8 @@ ProcessStandbyReplyMessage(void)
         reply.apply.xlogid, reply.apply.xrecoff);
 
    /*
-    * Update shared state for this WalSender process
-    * based on reply data from standby.
+    * Update shared state for this WalSender process based on reply data from
+    * standby.
     */
    {
        /* use volatile pointer to prevent code rearrangement */
@@ -610,7 +610,7 @@ ProcessStandbyReplyMessage(void)
 static void
 ProcessStandbyHSFeedbackMessage(void)
 {
-   StandbyHSFeedbackMessage    reply;
+   StandbyHSFeedbackMessage reply;
    TransactionId newxmin = InvalidTransactionId;
 
    pq_copymsgbytes(&reply_message, (char *) &reply, sizeof(StandbyHSFeedbackMessage));
@@ -620,22 +620,21 @@ ProcessStandbyHSFeedbackMessage(void)
         reply.epoch);
 
    /*
-    * Update the WalSender's proc xmin to allow it to be visible
-    * to snapshots. This will hold back the removal of dead rows
-    * and thereby prevent the generation of cleanup conflicts
-    * on the standby server.
+    * Update the WalSender's proc xmin to allow it to be visible to
+    * snapshots. This will hold back the removal of dead rows and thereby
+    * prevent the generation of cleanup conflicts on the standby server.
     */
    if (TransactionIdIsValid(reply.xmin))
    {
-       TransactionId   nextXid;
-       uint32          nextEpoch;
-       bool            epochOK = false;
+       TransactionId nextXid;
+       uint32      nextEpoch;
+       bool        epochOK = false;
 
        GetNextXidAndEpoch(&nextXid, &nextEpoch);
 
        /*
-        * Epoch of oldestXmin should be same as standby or
-        * if the counter has wrapped, then one less than reply.
+        * Epoch of oldestXmin should be same as standby or if the counter has
+        * wrapped, then one less than reply.
         */
        if (reply.xmin <= nextXid)
        {
@@ -657,6 +656,7 @@ ProcessStandbyHSFeedbackMessage(void)
            if (!TransactionIdIsValid(MyProc->xmin))
            {
                TransactionId oldestXmin = GetOldestXmin(true, true);
+
                if (TransactionIdPrecedes(oldestXmin, reply.xmin))
                    newxmin = reply.xmin;
                else
@@ -667,7 +667,7 @@ ProcessStandbyHSFeedbackMessage(void)
                if (TransactionIdPrecedes(MyProc->xmin, reply.xmin))
                    newxmin = reply.xmin;
                else
-                   newxmin = MyProc->xmin; /* stay the same */
+                   newxmin = MyProc->xmin;     /* stay the same */
            }
        }
    }
@@ -735,8 +735,8 @@ WalSndLoop(void)
        }
 
        /*
-        * If we don't have any pending data in the output buffer, try to
-        * send some more.
+        * If we don't have any pending data in the output buffer, try to send
+        * some more.
         */
        if (!pq_is_send_pending())
        {
@@ -746,8 +746,8 @@ WalSndLoop(void)
             * Even if we wrote all the WAL that was available when we started
             * sending, more might have arrived while we were sending this
             * batch. We had the latch set while sending, so we have not
-            * received any signals from that time. Let's arm the latch
-            * again, and after that check that we're still up-to-date.
+            * received any signals from that time. Let's arm the latch again,
+            * and after that check that we're still up-to-date.
             */
            if (caughtup && !pq_is_send_pending())
            {
@@ -777,17 +777,17 @@ WalSndLoop(void)
            !got_SIGHUP &&
            !walsender_shutdown_requested)
        {
-           TimestampTz finish_time = 0;
+           TimestampTz finish_time = 0;
            long        sleeptime;
 
            /* Reschedule replication timeout */
            if (replication_timeout > 0)
            {
                long        secs;
-               int     usecs;
+               int         usecs;
 
                finish_time = TimestampTzPlusMilliseconds(last_reply_timestamp,
-                                                         replication_timeout);
+                                                       replication_timeout);
                TimestampDifference(GetCurrentTimestamp(),
                                    finish_time, &secs, &usecs);
                sleeptime = secs * 1000 + usecs / 1000;
@@ -815,8 +815,8 @@ WalSndLoop(void)
            {
                /*
                 * Since typically expiration of replication timeout means
-                * communication problem, we don't send the error message
-                * to the standby.
+                * communication problem, we don't send the error message to
+                * the standby.
                 */
                ereport(COMMERROR,
                        (errmsg("terminating walsender process due to replication timeout")));
@@ -829,14 +829,14 @@ WalSndLoop(void)
         * This is an important state change for users, since before this
         * point data loss might occur if the primary dies and we need to
         * failover to the standby. The state change is also important for
-        * synchronous replication, since commits that started to wait at
-        * that point might wait for some time.
+        * synchronous replication, since commits that started to wait at that
+        * point might wait for some time.
         */
        if (MyWalSnd->state == WALSNDSTATE_CATCHUP && caughtup)
        {
            ereport(DEBUG1,
                    (errmsg("standby \"%s\" has now caught up with primary",
-                                   application_name)));
+                           application_name)));
            WalSndSetState(WALSNDSTATE_STREAMING);
        }
 
@@ -1317,7 +1317,7 @@ WalSndShmemInit(void)
 void
 WalSndWakeup(void)
 {
-   int     i;
+   int         i;
 
    for (i = 0; i < max_wal_senders; i++)
        SetLatch(&WalSndCtl->walsnds[i].latch);
@@ -1369,16 +1369,16 @@ WalSndGetStateString(WalSndState state)
 Datum
 pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
 {
-#define PG_STAT_GET_WAL_SENDERS_COLS   8
-   ReturnSetInfo      *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
-   TupleDesc           tupdesc;
-   Tuplestorestate    *tupstore;
-   MemoryContext       per_query_ctx;
-   MemoryContext       oldcontext;
-   int                 *sync_priority;
-   int                 priority = 0;
-   int                 sync_standby = -1;
-   int                 i;
+#define PG_STAT_GET_WAL_SENDERS_COLS   8
+   ReturnSetInfo *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
+   TupleDesc   tupdesc;
+   Tuplestorestate *tupstore;
+   MemoryContext per_query_ctx;
+   MemoryContext oldcontext;
+   int        *sync_priority;
+   int         priority = 0;
+   int         sync_standby = -1;
+   int         i;
 
    /* check to see if caller supports us returning a tuplestore */
    if (rsinfo == NULL || !IsA(rsinfo, ReturnSetInfo))
@@ -1406,9 +1406,9 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
    MemoryContextSwitchTo(oldcontext);
 
    /*
-    * Get the priorities of sync standbys all in one go, to minimise
-    * lock acquisitions and to allow us to evaluate who is the current
-    * sync standby. This code must match the code in SyncRepReleaseWaiters().
+    * Get the priorities of sync standbys all in one go, to minimise lock
+    * acquisitions and to allow us to evaluate who is the current sync
+    * standby. This code must match the code in SyncRepReleaseWaiters().
     */
    sync_priority = palloc(sizeof(int) * max_wal_senders);
    LWLockAcquire(SyncRepLock, LW_SHARED);
@@ -1442,7 +1442,7 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
        XLogRecPtr  write;
        XLogRecPtr  flush;
        XLogRecPtr  apply;
-       WalSndState state;
+       WalSndState state;
        Datum       values[PG_STAT_GET_WAL_SENDERS_COLS];
        bool        nulls[PG_STAT_GET_WAL_SENDERS_COLS];
 
@@ -1463,8 +1463,8 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
        if (!superuser())
        {
            /*
-            * Only superusers can see details. Other users only get
-            * the pid value to know it's a walsender, but no details.
+            * Only superusers can see details. Other users only get the pid
+            * value to know it's a walsender, but no details.
             */
            MemSet(&nulls[1], true, PG_STAT_GET_WAL_SENDERS_COLS - 1);
        }
@@ -1485,7 +1485,7 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
            if (flush.xlogid == 0 && flush.xrecoff == 0)
                nulls[4] = true;
            snprintf(location, sizeof(location), "%X/%X",
-                   flush.xlogid, flush.xrecoff);
+                    flush.xlogid, flush.xrecoff);
            values[4] = CStringGetTextDatum(location);
 
            if (apply.xlogid == 0 && apply.xrecoff == 0)
@@ -1497,8 +1497,8 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
            values[6] = Int32GetDatum(sync_priority[i]);
 
            /*
-            * More easily understood version of standby state.
-            * This is purely informational, not different from priority.
+            * More easily understood version of standby state. This is purely
+            * informational, not different from priority.
             */
            if (sync_priority[i] == 0)
                values[7] = CStringGetTextDatum("ASYNC");
index a405dbfe8eec95d3d0fdf41247b0ed3b566f80a7..c1b97d141ebef04c208afe1950daaaa5658bf6ae 100644 (file)
@@ -241,9 +241,9 @@ DefineQueryRewrite(char *rulename,
    /*
     * If we are installing an ON SELECT rule, we had better grab
     * AccessExclusiveLock to ensure no SELECTs are currently running on the
-    * event relation.  For other types of rules, it is sufficient to
-    * grab ShareRowExclusiveLock to lock out insert/update/delete actions
-    * and to ensure that we lock out current CREATE RULE statements.
+    * event relation.  For other types of rules, it is sufficient to grab
+    * ShareRowExclusiveLock to lock out insert/update/delete actions and to
+    * ensure that we lock out current CREATE RULE statements.
     */
    if (event_type == CMD_SELECT)
        event_relation = heap_open(event_relid, AccessExclusiveLock);
index a695b01239952bfa57b92b07ca6f50a7a9e5c7ab..bfc8fd7ee044120aadfb3f4e84bfe72a2b0562f4 100644 (file)
@@ -53,7 +53,7 @@ static Node *get_assignment_input(Node *node);
 static void rewriteValuesRTE(RangeTblEntry *rte, Relation target_relation,
                 List *attrnos);
 static void rewriteTargetListUD(Query *parsetree, RangeTblEntry *target_rte,
-                               Relation target_relation);
+                   Relation target_relation);
 static void markQueryForLocking(Query *qry, Node *jtnode,
                    bool forUpdate, bool noWait, bool pushedDown);
 static List *matchLocks(CmdType event, RuleLock *rulelocks,
@@ -743,8 +743,8 @@ rewriteTargetListIU(Query *parsetree, Relation target_relation,
        }
 
        /*
-        * For an UPDATE on a view, provide a dummy entry whenever there is
-        * no explicit assignment.
+        * For an UPDATE on a view, provide a dummy entry whenever there is no
+        * explicit assignment.
         */
        if (new_tle == NULL && commandType == CMD_UPDATE &&
            target_relation->rd_rel->relkind == RELKIND_VIEW)
@@ -1112,7 +1112,7 @@ rewriteValuesRTE(RangeTblEntry *rte, Relation target_relation, List *attrnos)
  * rewriteTargetListUD - rewrite UPDATE/DELETE targetlist as needed
  *
  * This function adds a "junk" TLE that is needed to allow the executor to
- * find the original row for the update or delete.  When the target relation
+ * find the original row for the update or delete. When the target relation
  * is a regular table, the junk TLE emits the ctid attribute of the original
  * row.  When the target relation is a view, there is no ctid, so we instead
  * emit a whole-row Var that will contain the "old" values of the view row.
@@ -1145,8 +1145,8 @@ rewriteTargetListUD(Query *parsetree, RangeTblEntry *target_rte,
    else
    {
        /*
-        * Emit whole-row Var so that executor will have the "old" view row
-        * to pass to the INSTEAD OF trigger.
+        * Emit whole-row Var so that executor will have the "old" view row to
+        * pass to the INSTEAD OF trigger.
         */
        var = makeWholeRowVar(target_rte,
                              parsetree->resultRelation,
@@ -1267,11 +1267,11 @@ ApplyRetrieveRule(Query *parsetree,
         * fine as the result relation.
         *
         * For UPDATE/DELETE, we need to expand the view so as to have source
-        * data for the operation.  But we also need an unmodified RTE to
+        * data for the operation.  But we also need an unmodified RTE to
         * serve as the target.  So, copy the RTE and add the copy to the
-        * rangetable.  Note that the copy does not get added to the jointree.
-        * Also note that there's a hack in fireRIRrules to avoid calling
-        * this function again when it arrives at the copied RTE.
+        * rangetable.  Note that the copy does not get added to the jointree.
+        * Also note that there's a hack in fireRIRrules to avoid calling this
+        * function again when it arrives at the copied RTE.
         */
        if (parsetree->commandType == CMD_INSERT)
            return parsetree;
@@ -1286,9 +1286,9 @@ ApplyRetrieveRule(Query *parsetree,
            parsetree->resultRelation = list_length(parsetree->rtable);
 
            /*
-            * There's no need to do permissions checks twice, so wipe out
-            * the permissions info for the original RTE (we prefer to keep
-            * the bits set on the result RTE).
+            * There's no need to do permissions checks twice, so wipe out the
+            * permissions info for the original RTE (we prefer to keep the
+            * bits set on the result RTE).
             */
            rte->requiredPerms = 0;
            rte->checkAsUser = InvalidOid;
@@ -1988,9 +1988,9 @@ RewriteQuery(Query *parsetree, List *rewrite_events)
     */
    foreach(lc1, parsetree->cteList)
    {
-       CommonTableExpr *cte = (CommonTableExpr *) lfirst(lc1);
-       Query       *ctequery = (Query *) cte->ctequery;
-       List        *newstuff;
+       CommonTableExpr *cte = (CommonTableExpr *) lfirst(lc1);
+       Query      *ctequery = (Query *) cte->ctequery;
+       List       *newstuff;
 
        Assert(IsA(ctequery, Query));
 
@@ -2021,12 +2021,12 @@ RewriteQuery(Query *parsetree, List *rewrite_events)
        }
        else
        {
-           ListCell *lc2;
+           ListCell   *lc2;
 
            /* examine queries to determine which error message to issue */
            foreach(lc2, newstuff)
            {
-               Query   *q = (Query *) lfirst(lc2);
+               Query      *q = (Query *) lfirst(lc2);
 
                if (q->querySource == QSRC_QUAL_INSTEAD_RULE)
                    ereport(ERROR,
index 9feed7345eba19acd659fd45066dc514a042d79a..7770d032b1eaeaac656f514fd27eb3b7ceb9b806 100644 (file)
@@ -127,7 +127,7 @@ get_rewrite_oid(Oid relid, const char *rulename, bool missing_ok)
  * Find rule oid, given only a rule name but no rel OID.
  *
  * If there's more than one, it's an error.  If there aren't any, that's an
- * error, too.  In general, this should be avoided - it is provided to support
+ * error, too. In general, this should be avoided - it is provided to support
  * syntax that is compatible with pre-7.3 versions of PG, where rule names
  * were unique across the entire database.
  */
index 1f89e5270564c0cda9d2ca88e536a8cf63b9f22e..f96685db50b70144ffc6193f941ba4d7b60e6f21 100644 (file)
@@ -644,17 +644,17 @@ BufferAlloc(SMgrRelation smgr, char relpersistence, ForkNumber forkNum,
 
                /* OK, do the I/O */
                TRACE_POSTGRESQL_BUFFER_WRITE_DIRTY_START(forkNum, blockNum,
-                                               smgr->smgr_rnode.node.spcNode,
-                                                smgr->smgr_rnode.node.dbNode,
-                                              smgr->smgr_rnode.node.relNode);
+                                              smgr->smgr_rnode.node.spcNode,
+                                               smgr->smgr_rnode.node.dbNode,
+                                             smgr->smgr_rnode.node.relNode);
 
                FlushBuffer(buf, NULL);
                LWLockRelease(buf->content_lock);
 
                TRACE_POSTGRESQL_BUFFER_WRITE_DIRTY_DONE(forkNum, blockNum,
-                                               smgr->smgr_rnode.node.spcNode,
-                                                smgr->smgr_rnode.node.dbNode,
-                                              smgr->smgr_rnode.node.relNode);
+                                              smgr->smgr_rnode.node.spcNode,
+                                               smgr->smgr_rnode.node.dbNode,
+                                             smgr->smgr_rnode.node.relNode);
            }
            else
            {
@@ -2029,7 +2029,7 @@ PrintBufferDescs(void)
             "[%02d] (freeNext=%d, rel=%s, "
             "blockNum=%u, flags=0x%x, refcount=%u %d)",
             i, buf->freeNext,
-            relpathbackend(buf->tag.rnode, InvalidBackendId, buf->tag.forkNum),
+         relpathbackend(buf->tag.rnode, InvalidBackendId, buf->tag.forkNum),
             buf->tag.blockNum, buf->flags,
             buf->refcount, PrivateRefCount[i]);
    }
@@ -2765,7 +2765,7 @@ local_buffer_write_error_callback(void *arg)
    if (bufHdr != NULL)
    {
        char       *path = relpathbackend(bufHdr->tag.rnode, MyBackendId,
-                                        bufHdr->tag.forkNum);
+                                         bufHdr->tag.forkNum);
 
        errcontext("writing block %u of relation %s",
                   bufHdr->tag.blockNum, path);
index 72968db026c023e9bfd3db5bfc43c09583857f2c..bf9903b9f323b277d42dee43345dfded231f6594 100644 (file)
@@ -77,7 +77,7 @@ typedef struct BufferAccessStrategyData
     * struct.
     */
    Buffer      buffers[1];     /* VARIABLE SIZE ARRAY */
-} BufferAccessStrategyData;
+}  BufferAccessStrategyData;
 
 
 /* Prototypes for internal functions */
index 0a01ed544e5de4d060eb03a369fe24eef4ae1d79..8816a5dfab455770c3199b06c6729889f2422162 100644 (file)
@@ -150,8 +150,8 @@ LocalBufferAlloc(SMgrRelation smgr, ForkNumber forkNum, BlockNumber blockNum,
 
 #ifdef LBDEBUG
    fprintf(stderr, "LB ALLOC (%u,%d,%d) %d\n",
-        smgr->smgr_rnode.node.relNode, forkNum, blockNum,
-        -nextFreeLocalBuf - 1);
+           smgr->smgr_rnode.node.relNode, forkNum, blockNum,
+           -nextFreeLocalBuf - 1);
 #endif
 
    /*
@@ -311,7 +311,7 @@ DropRelFileNodeLocalBuffers(RelFileNode rnode, ForkNumber forkNum,
                elog(ERROR, "block %u of %s is still referenced (local %u)",
                     bufHdr->tag.blockNum,
                     relpathbackend(bufHdr->tag.rnode, MyBackendId,
-                                  bufHdr->tag.forkNum),
+                                   bufHdr->tag.forkNum),
                     LocalRefCount[i]);
            /* Remove entry from hashtable */
            hresult = (LocalBufferLookupEnt *)
@@ -413,7 +413,7 @@ GetLocalBufferStorage(void)
        /*
         * We allocate local buffers in a context of their own, so that the
         * space eaten for them is easily recognizable in MemoryContextStats
-        * output.  Create the context on first use.
+        * output.  Create the context on first use.
         */
        if (LocalBufferContext == NULL)
            LocalBufferContext =
index bdb97b2ad11924008528dfe9a12093a0f413de7a..11bab38280e4049a09d4289004dc687b914ef8e5 100644 (file)
@@ -1063,15 +1063,15 @@ FileClose(File file)
         * If we get an error, as could happen within the ereport/elog calls,
         * we'll come right back here during transaction abort.  Reset the
         * flag to ensure that we can't get into an infinite loop.  This code
-        * is arranged to ensure that the worst-case consequence is failing
-        * to emit log message(s), not failing to attempt the unlink.
+        * is arranged to ensure that the worst-case consequence is failing to
+        * emit log message(s), not failing to attempt the unlink.
         */
        vfdP->fdstate &= ~FD_TEMPORARY;
 
        if (log_temp_files >= 0)
        {
            struct stat filestats;
-           int     stat_errno;
+           int         stat_errno;
 
            /* first try the stat() */
            if (stat(vfdP->fileName, &filestats))
@@ -1900,7 +1900,7 @@ RemovePgTempFiles(void)
        RemovePgTempFilesInDir(temp_path);
 
        snprintf(temp_path, sizeof(temp_path), "pg_tblspc/%s/%s",
-           spc_de->d_name, TABLESPACE_VERSION_DIRECTORY);
+                spc_de->d_name, TABLESPACE_VERSION_DIRECTORY);
        RemovePgTempRelationFiles(temp_path);
    }
 
@@ -1977,7 +1977,7 @@ RemovePgTempRelationFiles(const char *tsdirname)
 
    while ((de = ReadDir(ts_dir, tsdirname)) != NULL)
    {
-       int     i = 0;
+       int         i = 0;
 
        /*
         * We're only interested in the per-database directories, which have
@@ -2023,7 +2023,7 @@ RemovePgTempRelationFilesInDbspace(const char *dbspacedirname)
        snprintf(rm_path, sizeof(rm_path), "%s/%s",
                 dbspacedirname, de->d_name);
 
-       unlink(rm_path);    /* note we ignore any error */
+       unlink(rm_path);        /* note we ignore any error */
    }
 
    FreeDir(dbspace_dir);
@@ -2055,15 +2055,17 @@ looks_like_temp_rel_name(const char *name)
    /* We might have _forkname or .segment or both. */
    if (name[pos] == '_')
    {
-       int     forkchar = forkname_chars(&name[pos+1], NULL);
+       int         forkchar = forkname_chars(&name[pos + 1], NULL);
+
        if (forkchar <= 0)
            return false;
        pos += forkchar + 1;
    }
    if (name[pos] == '.')
    {
-       int     segchar;
-       for (segchar = 1; isdigit((unsigned char) name[pos+segchar]); ++segchar)
+       int         segchar;
+
+       for (segchar = 1; isdigit((unsigned char) name[pos + segchar]); ++segchar)
            ;
        if (segchar <= 1)
            return false;
index 54fde73de8e14be66ca62d3df41b496b719271a8..837ab90c8d8fb9858b17207c006128757c82597e 100644 (file)
 #include "utils/memutils.h"
 
 static void ResetUnloggedRelationsInTablespaceDir(const char *tsdirname,
-                                    int op);
+                                     int op);
 static void ResetUnloggedRelationsInDbspaceDir(const char *dbspacedirname,
                                   int op);
 static bool parse_filename_for_nontemp_relation(const char *name,
                                    int *oidchars, ForkNumber *fork);
 
-typedef struct {
-   char oid[OIDCHARS+1];
+typedef struct
+{
+   char        oid[OIDCHARS + 1];
 } unlogged_relation_entry;
 
 /*
@@ -49,13 +50,14 @@ ResetUnloggedRelations(int op)
    char        temp_path[MAXPGPATH];
    DIR        *spc_dir;
    struct dirent *spc_de;
-   MemoryContext tmpctx, oldctx;
+   MemoryContext tmpctx,
+               oldctx;
 
    /* Log it. */
    ereport(DEBUG1,
            (errmsg("resetting unlogged relations: cleanup %d init %d",
-            (op & UNLOGGED_RELATION_CLEANUP) != 0,
-            (op & UNLOGGED_RELATION_INIT) != 0)));
+                   (op & UNLOGGED_RELATION_CLEANUP) != 0,
+                   (op & UNLOGGED_RELATION_INIT) != 0)));
 
    /*
     * Just to be sure we don't leak any memory, let's create a temporary
@@ -85,7 +87,7 @@ ResetUnloggedRelations(int op)
            continue;
 
        snprintf(temp_path, sizeof(temp_path), "pg_tblspc/%s/%s",
-           spc_de->d_name, TABLESPACE_VERSION_DIRECTORY);
+                spc_de->d_name, TABLESPACE_VERSION_DIRECTORY);
        ResetUnloggedRelationsInTablespaceDir(temp_path, op);
    }
 
@@ -119,7 +121,7 @@ ResetUnloggedRelationsInTablespaceDir(const char *tsdirname, int op)
 
    while ((de = ReadDir(ts_dir, tsdirname)) != NULL)
    {
-       int     i = 0;
+       int         i = 0;
 
        /*
         * We're only interested in the per-database directories, which have
@@ -184,8 +186,8 @@ ResetUnloggedRelationsInDbspaceDir(const char *dbspacedirname, int op)
        /* Scan the directory. */
        while ((de = ReadDir(dbspace_dir, dbspacedirname)) != NULL)
        {
-           ForkNumber forkNum;
-           int     oidchars;
+           ForkNumber  forkNum;
+           int         oidchars;
            unlogged_relation_entry ent;
 
            /* Skip anything that doesn't look like a relation data file. */
@@ -198,8 +200,8 @@ ResetUnloggedRelationsInDbspaceDir(const char *dbspacedirname, int op)
                continue;
 
            /*
-            * Put the OID portion of the name into the hash table, if it isn't
-            * already.
+            * Put the OID portion of the name into the hash table, if it
+            * isn't already.
             */
            memset(ent.oid, 0, sizeof(ent.oid));
            memcpy(ent.oid, de->d_name, oidchars);
@@ -236,9 +238,9 @@ ResetUnloggedRelationsInDbspaceDir(const char *dbspacedirname, int op)
        /* Scan the directory. */
        while ((de = ReadDir(dbspace_dir, dbspacedirname)) != NULL)
        {
-           ForkNumber forkNum;
-           int     oidchars;
-           bool    found;
+           ForkNumber  forkNum;
+           int         oidchars;
+           bool        found;
            unlogged_relation_entry ent;
 
            /* Skip anything that doesn't look like a relation data file. */
@@ -262,7 +264,8 @@ ResetUnloggedRelationsInDbspaceDir(const char *dbspacedirname, int op)
            if (found)
            {
                snprintf(rm_path, sizeof(rm_path), "%s/%s",
-                   dbspacedirname, de->d_name);
+                        dbspacedirname, de->d_name);
+
                /*
                 * It's tempting to actually throw an error here, but since
                 * this code gets run during database startup, that could
@@ -284,9 +287,9 @@ ResetUnloggedRelationsInDbspaceDir(const char *dbspacedirname, int op)
    /*
     * Initialization happens after cleanup is complete: we copy each init
     * fork file to the corresponding main fork file.  Note that if we are
-    * asked to do both cleanup and init, we may never get here: if the cleanup
-    * code determines that there are no init forks in this dbspace, it will
-    * return before we get to this point.
+    * asked to do both cleanup and init, we may never get here: if the
+    * cleanup code determines that there are no init forks in this dbspace,
+    * it will return before we get to this point.
     */
    if ((op & UNLOGGED_RELATION_INIT) != 0)
    {
@@ -304,11 +307,11 @@ ResetUnloggedRelationsInDbspaceDir(const char *dbspacedirname, int op)
        /* Scan the directory. */
        while ((de = ReadDir(dbspace_dir, dbspacedirname)) != NULL)
        {
-           ForkNumber forkNum;
-           int     oidchars;
-           char    oidbuf[OIDCHARS+1];
-           char    srcpath[MAXPGPATH];
-           char    dstpath[MAXPGPATH];
+           ForkNumber  forkNum;
+           int         oidchars;
+           char        oidbuf[OIDCHARS + 1];
+           char        srcpath[MAXPGPATH];
+           char        dstpath[MAXPGPATH];
 
            /* Skip anything that doesn't look like a relation data file. */
            if (!parse_filename_for_nontemp_relation(de->d_name, &oidchars,
@@ -370,9 +373,9 @@ parse_filename_for_nontemp_relation(const char *name, int *oidchars,
        *fork = MAIN_FORKNUM;
    else
    {
-       int     forkchar;
+       int         forkchar;
 
-       forkchar = forkname_chars(&name[pos+1], fork);
+       forkchar = forkname_chars(&name[pos + 1], fork);
        if (forkchar <= 0)
            return false;
        pos += forkchar + 1;
@@ -381,8 +384,9 @@ parse_filename_for_nontemp_relation(const char *name, int *oidchars,
    /* Check for a segment number. */
    if (name[pos] == '.')
    {
-       int     segchar;
-       for (segchar = 1; isdigit((unsigned char) name[pos+segchar]); ++segchar)
+       int         segchar;
+
+       for (segchar = 1; isdigit((unsigned char) name[pos + segchar]); ++segchar)
            ;
        if (segchar <= 1)
            return false;
index 391d6a6ea046e45b88a8c9bd3d47ea7e25fa18e7..306e3f9a216922fcaa3e91a2669111fae4e0cbe2 100644 (file)
@@ -279,7 +279,7 @@ PostmasterIsAlive(bool amDirectChild)
 #ifndef WIN32
    if (amDirectChild)
    {
-       pid_t   ppid = getppid();
+       pid_t       ppid = getppid();
 
        /* If the postmaster is still our parent, it must be alive. */
        if (ppid == PostmasterPid)
@@ -297,10 +297,10 @@ PostmasterIsAlive(bool amDirectChild)
    }
 
    /*
-    * Use kill() to see if the postmaster is still alive.  This can
-    * sometimes give a false positive result, since the postmaster's PID
-    * may get recycled, but it is good enough for existing uses by
-    * indirect children and in debugging environments.
+    * Use kill() to see if the postmaster is still alive.  This can sometimes
+    * give a false positive result, since the postmaster's PID may get
+    * recycled, but it is good enough for existing uses by indirect children
+    * and in debugging environments.
     */
    return (kill(PostmasterPid, 0) == 0);
 #else                          /* WIN32 */
index 65fca7171a41def29ead09468f8cfe7e5382cd9d..e7593fa2ebe05ff19dc75671beaf28726edeac97 100644 (file)
@@ -475,10 +475,10 @@ ProcArrayApplyRecoveryInfo(RunningTransactions running)
        return;
 
    /*
-    * If our initial RunningTransactionsData had an overflowed snapshot then we knew
-    * we were missing some subxids from our snapshot. We can use this data as
-    * an initial snapshot, but we cannot yet mark it valid. We know that the
-    * missing subxids are equal to or earlier than nextXid. After we
+    * If our initial RunningTransactionsData had an overflowed snapshot then
+    * we knew we were missing some subxids from our snapshot. We can use this
+    * data as an initial snapshot, but we cannot yet mark it valid. We know
+    * that the missing subxids are equal to or earlier than nextXid. After we
     * initialise we continue to apply changes during recovery, so once the
     * oldestRunningXid is later than the nextXid from the initial snapshot we
     * know that we no longer have missing information and can mark the
@@ -510,8 +510,8 @@ ProcArrayApplyRecoveryInfo(RunningTransactions running)
     */
 
    /*
-    * Release any locks belonging to old transactions that are not
-    * running according to the running-xacts record.
+    * Release any locks belonging to old transactions that are not running
+    * according to the running-xacts record.
     */
    StandbyReleaseOldLocks(running->nextXid);
 
@@ -582,9 +582,8 @@ ProcArrayApplyRecoveryInfo(RunningTransactions running)
     * Now we've got the running xids we need to set the global values that
     * are used to track snapshots as they evolve further.
     *
-    * - latestCompletedXid which will be the xmax for snapshots
-    * - lastOverflowedXid which shows whether snapshots overflow
-    * - nextXid
+    * - latestCompletedXid which will be the xmax for snapshots -
+    * lastOverflowedXid which shows whether snapshots overflow - nextXid
     *
     * If the snapshot overflowed, then we still initialise with what we know,
     * but the recovery snapshot isn't fully valid yet because we know there
@@ -611,9 +610,8 @@ ProcArrayApplyRecoveryInfo(RunningTransactions running)
 
    /*
     * If a transaction wrote a commit record in the gap between taking and
-    * logging the snapshot then latestCompletedXid may already be higher
-    * than the value from the snapshot, so check before we use the incoming
-    * value.
+    * logging the snapshot then latestCompletedXid may already be higher than
+    * the value from the snapshot, so check before we use the incoming value.
     */
    if (TransactionIdPrecedes(ShmemVariableCache->latestCompletedXid,
                              running->latestCompletedXid))
@@ -1048,7 +1046,7 @@ GetOldestXmin(bool allDbs, bool ignoreVacuum)
 
        if (allDbs ||
            proc->databaseId == MyDatabaseId ||
-           proc->databaseId == 0)  /* include WalSender */
+           proc->databaseId == 0)      /* include WalSender */
        {
            /* Fetch xid just once - see GetNewTransactionId */
            TransactionId xid = proc->xid;
@@ -1075,8 +1073,8 @@ GetOldestXmin(bool allDbs, bool ignoreVacuum)
    if (RecoveryInProgress())
    {
        /*
-        * Check to see whether KnownAssignedXids contains an xid value
-        * older than the main procarray.
+        * Check to see whether KnownAssignedXids contains an xid value older
+        * than the main procarray.
         */
        TransactionId kaxmin = KnownAssignedXidsGetOldestXmin();
 
@@ -1084,7 +1082,7 @@ GetOldestXmin(bool allDbs, bool ignoreVacuum)
 
        if (TransactionIdIsNormal(kaxmin) &&
            TransactionIdPrecedes(kaxmin, result))
-               result = kaxmin;
+           result = kaxmin;
    }
    else
    {
@@ -1100,9 +1098,9 @@ GetOldestXmin(bool allDbs, bool ignoreVacuum)
         * vacuum_defer_cleanup_age provides some additional "slop" for the
         * benefit of hot standby queries on slave servers.  This is quick and
         * dirty, and perhaps not all that useful unless the master has a
-        * predictable transaction rate, but it's what we've got.  Note that we
-        * are assuming vacuum_defer_cleanup_age isn't large enough to cause
-        * wraparound --- so guc.c should limit it to no more than the
+        * predictable transaction rate, but it's what we've got.  Note that
+        * we are assuming vacuum_defer_cleanup_age isn't large enough to
+        * cause wraparound --- so guc.c should limit it to no more than the
         * xidStopLimit threshold in varsup.c.
         */
        result -= vacuum_defer_cleanup_age;
@@ -1483,9 +1481,9 @@ GetRunningTransactionData(void)
                suboverflowed = true;
 
            /*
-            * Top-level XID of a transaction is always less than any of
-            * its subxids, so we don't need to check if any of the subxids
-            * are smaller than oldestRunningXid
+            * Top-level XID of a transaction is always less than any of its
+            * subxids, so we don't need to check if any of the subxids are
+            * smaller than oldestRunningXid
             */
        }
    }
index 2e71484126def7cbcf086c337a975936bd57982e..3fdb5184a943f90fa448f689c691f232e4acadcb 100644 (file)
@@ -193,7 +193,7 @@ ResolveRecoveryConflictWithVirtualXIDs(VirtualTransactionId *waitlist,
        return;
 
    waitStart = GetCurrentTimestamp();
-   new_status = NULL;      /* we haven't changed the ps display */
+   new_status = NULL;          /* we haven't changed the ps display */
 
    while (VirtualTransactionIdIsValid(*waitlist))
    {
@@ -963,14 +963,14 @@ void
 LogAccessExclusiveLockPrepare(void)
 {
    /*
-    * Ensure that a TransactionId has been assigned to this transaction,
-    * for two reasons, both related to lock release on the standby.
-    * First, we must assign an xid so that RecordTransactionCommit() and
+    * Ensure that a TransactionId has been assigned to this transaction, for
+    * two reasons, both related to lock release on the standby. First, we
+    * must assign an xid so that RecordTransactionCommit() and
     * RecordTransactionAbort() do not optimise away the transaction
-    * completion record which recovery relies upon to release locks. It's
-    * a hack, but for a corner case not worth adding code for into the
-    * main commit path. Second, must must assign an xid before the lock
-    * is recorded in shared memory, otherwise a concurrently executing
+    * completion record which recovery relies upon to release locks. It's a
+    * hack, but for a corner case not worth adding code for into the main
+    * commit path. Second, must must assign an xid before the lock is
+    * recorded in shared memory, otherwise a concurrently executing
     * GetRunningTransactionLocks() might see a lock associated with an
     * InvalidTransactionId which we later assert cannot happen.
     */
index 01e3492cb837385316ed5161f5009c7f325ee53f..e0441f5bf1c88644d59c5d0e97415867983611ac 100644 (file)
@@ -844,8 +844,8 @@ inv_truncate(LargeObjectDesc *obj_desc, int len)
    {
        /*
         * If the first page we found was after the truncation point, we're in
-        * a hole that we'll fill, but we need to delete the later page because
-        * the loop below won't visit it again.
+        * a hole that we'll fill, but we need to delete the later page
+        * because the loop below won't visit it again.
         */
        if (olddata != NULL)
        {
index ed0ea1205f479a75a1684c4766ee03bdf7f7281c..3fbe14a40900550b07c45dfbcab3b57d1d32f870 100644 (file)
@@ -586,7 +586,8 @@ LockAcquireExtended(const LOCKTAG *locktag,
     * standby server. Only AccessExclusiveLocks can conflict with lock types
     * that read-only transactions can acquire in a standby server.
     *
-    * Make sure this definition matches the one in GetRunningTransactionLocks().
+    * Make sure this definition matches the one in
+    * GetRunningTransactionLocks().
     *
     * First we prepare to log, then after lock acquired we issue log record.
     */
index 7978bef996ded620a43b68ee6051d7ae330f0168..72385c2f3eba67cd0cb9e8d749c4bb8f735ac4b6 100644 (file)
@@ -327,7 +327,7 @@ typedef struct OldSerXidControlData
    TransactionId headXid;      /* newest valid Xid in the SLRU */
    TransactionId tailXid;      /* oldest xmin we might be interested in */
    bool        warningIssued;
-} OldSerXidControlData;
+}  OldSerXidControlData;
 
 typedef struct OldSerXidControlData *OldSerXidControl;
 
@@ -477,7 +477,7 @@ ReleasePredXact(SERIALIZABLEXACT *sxact)
    ptle = (PredXactListElement)
        (((char *) sxact)
         - offsetof(PredXactListElementData, sxact)
-        +offsetof(PredXactListElementData, link));
+        + offsetof(PredXactListElementData, link));
    SHMQueueDelete(&ptle->link);
    SHMQueueInsertBefore(&PredXact->availableList, &ptle->link);
 }
@@ -507,7 +507,7 @@ NextPredXact(SERIALIZABLEXACT *sxact)
    ptle = (PredXactListElement)
        (((char *) sxact)
         - offsetof(PredXactListElementData, sxact)
-        +offsetof(PredXactListElementData, link));
+        + offsetof(PredXactListElementData, link));
    ptle = (PredXactListElement)
        SHMQueueNext(&PredXact->activeList,
                     &ptle->link,
@@ -746,10 +746,10 @@ OldSerXidAdd(TransactionId xid, SerCommitSeqNo minConflictCommitSeqNo)
    Assert(TransactionIdIsValid(tailXid));
 
    /*
-    * If the SLRU is currently unused, zero out the whole active region
-    * from tailXid to headXid before taking it into use. Otherwise zero
-    * out only any new pages that enter the tailXid-headXid range as we
-    * advance headXid.
+    * If the SLRU is currently unused, zero out the whole active region from
+    * tailXid to headXid before taking it into use. Otherwise zero out only
+    * any new pages that enter the tailXid-headXid range as we advance
+    * headXid.
     */
    if (oldSerXidControl->headPage < 0)
    {
@@ -855,8 +855,8 @@ OldSerXidSetActiveSerXmin(TransactionId xid)
    /*
     * When no sxacts are active, nothing overlaps, set the xid values to
     * invalid to show that there are no valid entries.  Don't clear headPage,
-    * though.  A new xmin might still land on that page, and we don't want
-    * to repeatedly zero out the same page.
+    * though.  A new xmin might still land on that page, and we don't want to
+    * repeatedly zero out the same page.
     */
    if (!TransactionIdIsValid(xid))
    {
@@ -901,7 +901,7 @@ OldSerXidSetActiveSerXmin(TransactionId xid)
 void
 CheckPointPredicate(void)
 {
-   int tailPage;
+   int         tailPage;
 
    LWLockAcquire(OldSerXidLock, LW_EXCLUSIVE);
 
@@ -921,16 +921,15 @@ CheckPointPredicate(void)
    {
        /*
         * The SLRU is no longer needed. Truncate everything.  If we try to
-        * leave the head page around to avoid re-zeroing it, we might not
-        * use the SLRU again until we're past the wrap-around point, which
-        * makes SLRU unhappy.
+        * leave the head page around to avoid re-zeroing it, we might not use
+        * the SLRU again until we're past the wrap-around point, which makes
+        * SLRU unhappy.
         *
         * While the API asks you to specify truncation by page, it silently
-        * ignores the request unless the specified page is in a segment
-        * past some allocated portion of the SLRU.  We don't care which
-        * page in a later segment we hit, so just add the number of pages
-        * per segment to the head page to land us *somewhere* in the next
-        * segment.
+        * ignores the request unless the specified page is in a segment past
+        * some allocated portion of the SLRU.  We don't care which page in a
+        * later segment we hit, so just add the number of pages per segment
+        * to the head page to land us *somewhere* in the next segment.
         */
        tailPage = oldSerXidControl->headPage + SLRU_PAGES_PER_SEGMENT;
        oldSerXidControl->headPage = -1;
@@ -1329,12 +1328,12 @@ SummarizeOldestCommittedSxact(void)
    /*
     * This function is only called if there are no sxact slots available.
     * Some of them must belong to old, already-finished transactions, so
-    * there should be something in FinishedSerializableTransactions list
-    * that we can summarize. However, there's a race condition: while we
-    * were not holding any locks, a transaction might have ended and cleaned
-    * up all the finished sxact entries already, freeing up their sxact
-    * slots. In that case, we have nothing to do here. The caller will find
-    * one of the slots released by the other backend when it retries.
+    * there should be something in FinishedSerializableTransactions list that
+    * we can summarize. However, there's a race condition: while we were not
+    * holding any locks, a transaction might have ended and cleaned up all
+    * the finished sxact entries already, freeing up their sxact slots. In
+    * that case, we have nothing to do here. The caller will find one of the
+    * slots released by the other backend when it retries.
     */
    if (SHMQueueEmpty(FinishedSerializableTransactions))
    {
@@ -2213,7 +2212,7 @@ PredicateLockTuple(const Relation relation, const HeapTuple tuple)
     */
    if (relation->rd_index == NULL)
    {
-       TransactionId   myxid;
+       TransactionId myxid;
 
        targetxmin = HeapTupleHeaderGetXmin(tuple->t_data);
 
@@ -2223,6 +2222,7 @@ PredicateLockTuple(const Relation relation, const HeapTuple tuple)
            if (TransactionIdFollowsOrEquals(targetxmin, TransactionXmin))
            {
                TransactionId xid = SubTransGetTopmostTransaction(targetxmin);
+
                if (TransactionIdEquals(xid, myxid))
                {
                    /* We wrote it; we already have a write lock. */
@@ -2272,7 +2272,7 @@ PredicateLockTupleRowVersionLink(const Relation relation,
    PREDICATELOCKTARGETTAG oldtupletag;
    PREDICATELOCKTARGETTAG oldpagetag;
    PREDICATELOCKTARGETTAG newtupletag;
-   BlockNumber oldblk,
+   BlockNumber oldblk,
                newblk;
    OffsetNumber oldoff,
                newoff;
@@ -2308,10 +2308,10 @@ PredicateLockTupleRowVersionLink(const Relation relation,
 
    /*
     * A page-level lock on the page containing the old tuple counts too.
-    * Anyone holding a lock on the page is logically holding a lock on
-    * the old tuple, so we need to acquire a lock on his behalf on the
-    * new tuple too. However, if the new tuple is on the same page as the
-    * old one, the old page-level lock already covers the new tuple.
+    * Anyone holding a lock on the page is logically holding a lock on the
+    * old tuple, so we need to acquire a lock on his behalf on the new tuple
+    * too. However, if the new tuple is on the same page as the old one, the
+    * old page-level lock already covers the new tuple.
     *
     * A relation-level lock always covers both tuple versions, so we don't
     * need to worry about those here.
@@ -2668,10 +2668,10 @@ PredicateLockPageSplit(const Relation relation, const BlockNumber oldblkno,
        /*
         * Move the locks to the parent. This shouldn't fail.
         *
-        * Note that here we are removing locks held by other
-        * backends, leading to a possible inconsistency in their
-        * local lock hash table. This is OK because we're replacing
-        * it with a lock that covers the old one.
+        * Note that here we are removing locks held by other backends,
+        * leading to a possible inconsistency in their local lock hash table.
+        * This is OK because we're replacing it with a lock that covers the
+        * old one.
         */
        success = TransferPredicateLocksToNewTarget(oldtargettag,
                                                    newtargettag,
@@ -2696,16 +2696,15 @@ PredicateLockPageCombine(const Relation relation, const BlockNumber oldblkno,
                         const BlockNumber newblkno)
 {
    /*
-    * Page combines differ from page splits in that we ought to be
-    * able to remove the locks on the old page after transferring
-    * them to the new page, instead of duplicating them. However,
-    * because we can't edit other backends' local lock tables,
-    * removing the old lock would leave them with an entry in their
-    * LocalPredicateLockHash for a lock they're not holding, which
-    * isn't acceptable. So we wind up having to do the same work as a
-    * page split, acquiring a lock on the new page and keeping the old
-    * page locked too. That can lead to some false positives, but
-    * should be rare in practice.
+    * Page combines differ from page splits in that we ought to be able to
+    * remove the locks on the old page after transferring them to the new
+    * page, instead of duplicating them. However, because we can't edit other
+    * backends' local lock tables, removing the old lock would leave them
+    * with an entry in their LocalPredicateLockHash for a lock they're not
+    * holding, which isn't acceptable. So we wind up having to do the same
+    * work as a page split, acquiring a lock on the new page and keeping the
+    * old page locked too. That can lead to some false positives, but should
+    * be rare in practice.
     */
    PredicateLockPageSplit(relation, oldblkno, newblkno);
 }
@@ -3652,15 +3651,15 @@ CheckTargetForConflictsIn(PREDICATELOCKTARGETTAG *targettag)
            /*
             * If we're getting a write lock on the tuple and we're not in a
             * subtransaction, we don't need a predicate (SIREAD) lock.  We
-            * can't use this optimization within a subtransaction because
-            * the subtransaction could be rolled back, and we would be left
+            * can't use this optimization within a subtransaction because the
+            * subtransaction could be rolled back, and we would be left
             * without any lock at the top level.
-            * 
+            *
             * At this point our transaction already has an ExclusiveRowLock
-            * on the relation, so we are OK to drop the predicate lock on
-            * the tuple, if found, without fearing that another write
-            * against the tuple will occur before the MVCC information
-            * makes it to the buffer.
+            * on the relation, so we are OK to drop the predicate lock on the
+            * tuple, if found, without fearing that another write against the
+            * tuple will occur before the MVCC information makes it to the
+            * buffer.
             */
            if (!IsSubTransaction()
                && GET_PREDICATELOCKTARGETTAG_OFFSET(*targettag))
@@ -3722,8 +3721,8 @@ CheckTargetForConflictsIn(PREDICATELOCKTARGETTAG *targettag)
                    /*
                     * Remove entry in local lock table if it exists and has
                     * no children. It's OK if it doesn't exist; that means
-                    * the lock was transferred to a new target by a
-                    * different backend.
+                    * the lock was transferred to a new target by a different
+                    * backend.
                     */
                    if (locallock != NULL)
                    {
@@ -3733,8 +3732,8 @@ CheckTargetForConflictsIn(PREDICATELOCKTARGETTAG *targettag)
                        {
                            rmlocallock = (LOCALPREDICATELOCK *)
                                hash_search_with_hash_value(LocalPredicateLockHash,
-                                                           targettag, targettaghash,
-                                                           HASH_REMOVE, NULL);
+                                                   targettag, targettaghash,
+                                                         HASH_REMOVE, NULL);
                            Assert(rmlocallock == locallock);
                        }
                    }
@@ -3772,9 +3771,9 @@ CheckTargetForConflictsIn(PREDICATELOCKTARGETTAG *targettag)
                    LWLockAcquire(partitionLock, LW_SHARED);
 
                    /*
-                    * The list may have been altered by another process
-                    * while we weren't holding the partition lock.  Start
-                    * over at the front.
+                    * The list may have been altered by another process while
+                    * we weren't holding the partition lock.  Start over at
+                    * the front.
                     */
                    nextpredlock = (PREDICATELOCK *)
                        SHMQueueNext(&(target->predicateLocks),
@@ -3862,8 +3861,8 @@ CheckForSerializableConflictIn(const Relation relation, const HeapTuple tuple,
                                         relation->rd_node.dbNode,
                                         relation->rd_id,
                         ItemPointerGetBlockNumber(&(tuple->t_data->t_ctid)),
-                      ItemPointerGetOffsetNumber(&(tuple->t_data->t_ctid)),
-                      HeapTupleHeaderGetXmin(tuple->t_data));
+                       ItemPointerGetOffsetNumber(&(tuple->t_data->t_ctid)),
+                                     HeapTupleHeaderGetXmin(tuple->t_data));
        CheckTargetForConflictsIn(&targettag);
    }
 
index 9d585b6fea8bf6f15d660f750c6aae08af9ee66c..6f8866836d6f13b80ebe8cd85380082f747ff877 100644 (file)
@@ -938,7 +938,7 @@ mdsync(void)
    int         processed = 0;
    instr_time  sync_start,
                sync_end,
-               sync_diff; 
+               sync_diff;
    uint64      elapsed;
    uint64      longest = 0;
    uint64      total_elapsed = 0;
@@ -1094,7 +1094,7 @@ mdsync(void)
                if (seg != NULL &&
                    FileSync(seg->mdfd_vfd) >= 0)
                {
-                   if (log_checkpoints && (! INSTR_TIME_IS_ZERO(sync_start)))
+                   if (log_checkpoints && (!INSTR_TIME_IS_ZERO(sync_start)))
                    {
                        INSTR_TIME_SET_CURRENT(sync_end);
                        sync_diff = sync_end;
@@ -1104,8 +1104,8 @@ mdsync(void)
                            longest = elapsed;
                        total_elapsed += elapsed;
                        processed++;
-                       elog(DEBUG1, "checkpoint sync: number=%d file=%s time=%.3f msec", 
-                           processed, FilePathName(seg->mdfd_vfd), (double) elapsed / 1000);
+                       elog(DEBUG1, "checkpoint sync: number=%d file=%s time=%.3f msec",
+                            processed, FilePathName(seg->mdfd_vfd), (double) elapsed / 1000);
                    }
 
                    break;      /* success; break out of retry loop */
@@ -1268,7 +1268,7 @@ register_dirty_segment(SMgrRelation reln, ForkNumber forknum, MdfdVec *seg)
            return;             /* passed it off successfully */
 
        ereport(DEBUG1,
-           (errmsg("could not forward fsync request because request queue is full")));
+               (errmsg("could not forward fsync request because request queue is full")));
 
        if (FileSync(seg->mdfd_vfd) < 0)
            ereport(ERROR,
index 82bf23264542c158178947d1b24015687001225c..a6610bf4f82d1a4174a9bfd27a226c55ef0c3ba4 100644 (file)
@@ -48,16 +48,16 @@ typedef struct f_smgr
    void        (*smgr_unlink) (RelFileNodeBackend rnode, ForkNumber forknum,
                                            bool isRedo);
    void        (*smgr_extend) (SMgrRelation reln, ForkNumber forknum,
-                           BlockNumber blocknum, char *buffer, bool skipFsync);
+                        BlockNumber blocknum, char *buffer, bool skipFsync);
    void        (*smgr_prefetch) (SMgrRelation reln, ForkNumber forknum,
                                              BlockNumber blocknum);
    void        (*smgr_read) (SMgrRelation reln, ForkNumber forknum,
                                          BlockNumber blocknum, char *buffer);
    void        (*smgr_write) (SMgrRelation reln, ForkNumber forknum,
-                           BlockNumber blocknum, char *buffer, bool skipFsync);
+                        BlockNumber blocknum, char *buffer, bool skipFsync);
    BlockNumber (*smgr_nblocks) (SMgrRelation reln, ForkNumber forknum);
    void        (*smgr_truncate) (SMgrRelation reln, ForkNumber forknum,
-                                          BlockNumber nblocks);
+                                             BlockNumber nblocks);
    void        (*smgr_immedsync) (SMgrRelation reln, ForkNumber forknum);
    void        (*smgr_pre_ckpt) (void);        /* may be NULL */
    void        (*smgr_sync) (void);    /* may be NULL */
index cc7945aeb669cc9d558854dcf51cf69e12c3f801..805514b07b4144337445603fa536c472de572381 100644 (file)
@@ -1555,7 +1555,7 @@ exec_bind_message(StringInfo input_message)
 
        /* sizeof(ParamListInfoData) includes the first array element */
        params = (ParamListInfo) palloc(sizeof(ParamListInfoData) +
-                                  (numParams - 1) *sizeof(ParamExternData));
+                                 (numParams - 1) * sizeof(ParamExternData));
        /* we have static list of params, so no hooks needed */
        params->paramFetch = NULL;
        params->paramFetchArg = NULL;
@@ -2982,17 +2982,16 @@ ia64_get_bsp(void)
 
 #ifndef __INTEL_COMPILER
    /* the ;; is a "stop", seems to be required before fetching BSP */
-   __asm__ __volatile__(
-       ";;\n"
-         mov %0=ar.bsp   \n"
-:      "=r"(ret));
+   __asm__     __volatile__(
+                                        ";;\n"
+                                        "  mov %0=ar.bsp   \n"
+                            :           "=r"(ret));
 #else
-  ret = (char *) __getReg(_IA64_REG_AR_BSP);
+   ret = (char *) __getReg(_IA64_REG_AR_BSP);
 #endif
-  return ret;
+   return ret;
 }
-
-#endif /* IA64 */
+#endif   /* IA64 */
 
 
 /*
@@ -3035,7 +3034,7 @@ check_stack_depth(void)
                (errcode(ERRCODE_STATEMENT_TOO_COMPLEX),
                 errmsg("stack depth limit exceeded"),
                 errhint("Increase the configuration parameter \"max_stack_depth\" (currently %dkB), "
-                        "after ensuring the platform's stack depth limit is adequate.",
+             "after ensuring the platform's stack depth limit is adequate.",
                         max_stack_depth)));
    }
 
@@ -3057,10 +3056,10 @@ check_stack_depth(void)
                (errcode(ERRCODE_STATEMENT_TOO_COMPLEX),
                 errmsg("stack depth limit exceeded"),
                 errhint("Increase the configuration parameter \"max_stack_depth\" (currently %dkB), "
-                        "after ensuring the platform's stack depth limit is adequate.",
+             "after ensuring the platform's stack depth limit is adequate.",
                         max_stack_depth)));
    }
-#endif /* IA64 */
+#endif   /* IA64 */
 }
 
 /* GUC check hook for max_stack_depth */
index 1286edee72997637817a1956aaba6c137ff02d53..b7649c68fcf26471c45c8d61643305e4b53acf52 100644 (file)
@@ -248,8 +248,8 @@ ChoosePortalStrategy(List *stmts)
    /*
     * PORTAL_ONE_SELECT and PORTAL_UTIL_SELECT need only consider the
     * single-statement case, since there are no rewrite rules that can add
-    * auxiliary queries to a SELECT or a utility command.
-    * PORTAL_ONE_MOD_WITH likewise allows only one top-level statement.
+    * auxiliary queries to a SELECT or a utility command. PORTAL_ONE_MOD_WITH
+    * likewise allows only one top-level statement.
     */
    if (list_length(stmts) == 1)
    {
@@ -1158,7 +1158,7 @@ PortalRunUtility(Portal portal, Node *utilityStmt, bool isTopLevel,
     * list.  Transaction control, LOCK, and SET must *not* set a snapshot
     * since they need to be executable at the start of a transaction-snapshot
     * mode transaction without freezing a snapshot.  By extension we allow
-    * SHOW not to set a snapshot.  The other stmts listed are just efficiency
+    * SHOW not to set a snapshot.  The other stmts listed are just efficiency
     * hacks.  Beware of listing anything that can modify the database --- if,
     * say, it has to update an index with expressions that invoke
     * user-defined functions, then it had better have a snapshot.
index 8e13096246914abb71ede6e56dc076d0a5ecbf20..b1fd5ec04fe6a6506cb3632b3e01e1686e8d6dc1 100644 (file)
@@ -562,12 +562,12 @@ standard_ProcessUtility(Node *parsetree,
 
                        /*
                         * Unless "IF NOT EXISTS" was specified and the
-                        * relation already exists, create the pg_foreign_table
-                        * entry.
+                        * relation already exists, create the
+                        * pg_foreign_table entry.
                         */
                        if (relOid != InvalidOid)
                            CreateForeignTable((CreateForeignTableStmt *) stmt,
-                                               relOid);
+                                              relOid);
                    }
                    else
                    {
@@ -916,6 +916,7 @@ standard_ProcessUtility(Node *parsetree,
            break;
 
        case T_AlterEnumStmt:   /* ALTER TYPE (enum) */
+
            /*
             * We disallow this in transaction blocks, because we can't cope
             * with enum OID values getting into indexes and then having their
index d4ddcba6315f05ab04a3cadd2ffac877fd6f686e..ecc880f54de6f68eb1f4c39bab67e7cb9f1c88ba 100644 (file)
@@ -74,7 +74,7 @@ NIFinishBuild(IspellDict *Conf)
  * doesn't need that.  The cpalloc and cpalloc0 macros are just documentation
  * to indicate which allocations actually require zeroing.
  */
-#define COMPACT_ALLOC_CHUNK    8192    /* must be > aset.c's allocChunkLimit */
+#define COMPACT_ALLOC_CHUNK 8192   /* must be > aset.c's allocChunkLimit */
 #define COMPACT_MAX_REQ        1024    /* must be < COMPACT_ALLOC_CHUNK */
 
 static void *
index c66f4aa8bfa87ac49dbcbeb08c2b552cef49d3da..b8ae0fe65e0c21cfafe8efe406dbb24f2b408eed 100644 (file)
@@ -28,7 +28,7 @@ t_isdigit(const char *ptr)
 {
    int         clen = pg_mblen(ptr);
    wchar_t     character[2];
-   Oid         collation = DEFAULT_COLLATION_OID; /*TODO*/
+   Oid         collation = DEFAULT_COLLATION_OID;      /* TODO */
 
    if (clen == 1 || lc_ctype_is_c(collation))
        return isdigit(TOUCHAR(ptr));
@@ -43,7 +43,7 @@ t_isspace(const char *ptr)
 {
    int         clen = pg_mblen(ptr);
    wchar_t     character[2];
-   Oid         collation = DEFAULT_COLLATION_OID; /*TODO*/
+   Oid         collation = DEFAULT_COLLATION_OID;      /* TODO */
 
    if (clen == 1 || lc_ctype_is_c(collation))
        return isspace(TOUCHAR(ptr));
@@ -58,7 +58,7 @@ t_isalpha(const char *ptr)
 {
    int         clen = pg_mblen(ptr);
    wchar_t     character[2];
-   Oid         collation = DEFAULT_COLLATION_OID; /*TODO*/
+   Oid         collation = DEFAULT_COLLATION_OID;      /* TODO */
 
    if (clen == 1 || lc_ctype_is_c(collation))
        return isalpha(TOUCHAR(ptr));
@@ -73,7 +73,7 @@ t_isprint(const char *ptr)
 {
    int         clen = pg_mblen(ptr);
    wchar_t     character[2];
-   Oid         collation = DEFAULT_COLLATION_OID; /*TODO*/
+   Oid         collation = DEFAULT_COLLATION_OID;      /* TODO */
 
    if (clen == 1 || lc_ctype_is_c(collation))
        return isprint(TOUCHAR(ptr));
@@ -243,8 +243,9 @@ char *
 lowerstr_with_len(const char *str, int len)
 {
    char       *out;
+
 #ifdef USE_WIDE_UPPER_LOWER
-   Oid         collation = DEFAULT_COLLATION_OID; /*TODO*/
+   Oid         collation = DEFAULT_COLLATION_OID;      /* TODO */
 #endif
 
    if (len == 0)
index 7f33c16a245753c531ef59d2e3c16bb29502b7e3..366fa2ebf4c4af65b79e501f7dfc25dcc971a5bb 100644 (file)
@@ -304,9 +304,9 @@ tsquery_opr_selec(QueryItem *item, char *operand,
 
            /*
             * Our strategy is to scan through the MCV list and add up the
-            * frequencies of the ones that match the prefix, thereby
-            * assuming that the MCVs are representative of the whole lexeme
-            * population in this respect.  Compare histogram_selectivity().
+            * frequencies of the ones that match the prefix, thereby assuming
+            * that the MCVs are representative of the whole lexeme population
+            * in this respect.  Compare histogram_selectivity().
             *
             * This is only a good plan if we have a pretty fair number of
             * MCVs available; we set the threshold at 100.  If no stats or
@@ -401,7 +401,7 @@ tsquery_opr_selec(QueryItem *item, char *operand,
 
            default:
                elog(ERROR, "unrecognized operator: %d", item->qoperator.oper);
-               selec = 0;          /* keep compiler quiet */
+               selec = 0;      /* keep compiler quiet */
                break;
        }
    }
index 3981a50589d6d8b0c34b707587c3f22ef31772c9..47d777a3e6ab18c5b94bdba4619e597ecfa63300 100644 (file)
@@ -299,16 +299,16 @@ TParserInit(char *str, int len)
     */
    if (prs->charmaxlen > 1)
    {
-       Oid         collation = DEFAULT_COLLATION_OID; /*TODO*/
-       
+       Oid         collation = DEFAULT_COLLATION_OID;  /* TODO */
+
        prs->usewide = true;
-       if ( lc_ctype_is_c(collation) )
+       if (lc_ctype_is_c(collation))
        {
            /*
-            * char2wchar doesn't work for C-locale and
-            * sizeof(pg_wchar) could be not equal to sizeof(wchar_t)
+            * char2wchar doesn't work for C-locale and sizeof(pg_wchar) could
+            * be not equal to sizeof(wchar_t)
             */
-           prs->pgwstr = (pg_wchar*) palloc(sizeof(pg_wchar) * (prs->lenstr + 1));
+           prs->pgwstr = (pg_wchar *) palloc(sizeof(pg_wchar) * (prs->lenstr + 1));
            pg_mb2wchar_with_len(prs->str, prs->pgwstr, prs->lenstr);
        }
        else
@@ -325,10 +325,11 @@ TParserInit(char *str, int len)
    prs->state->state = TPS_Base;
 
 #ifdef WPARSER_TRACE
+
    /*
-    * Use of %.*s here is a bit risky since it can misbehave if the data
-    * is not in what libc thinks is the prevailing encoding.  However,
-    * since this is just a debugging aid, we choose to live with that.
+    * Use of %.*s here is a bit risky since it can misbehave if the data is
+    * not in what libc thinks is the prevailing encoding.  However, since
+    * this is just a debugging aid, we choose to live with that.
     */
    fprintf(stderr, "parsing \"%.*s\"\n", len, str);
 #endif
@@ -425,11 +426,11 @@ TParserCopyClose(TParser *prs)
 /*
  * Character-type support functions, equivalent to is* macros, but
  * working with any possible encodings and locales. Notes:
- *  - with multibyte encoding and C-locale isw* function may fail
- *    or give wrong result.
- *  - multibyte encoding and C-locale often are used for
- *    Asian languages.
- *  - if locale is C the we use pgwstr instead of wstr
+ * - with multibyte encoding and C-locale isw* function may fail
+ *   or give wrong result.
+ * - multibyte encoding and C-locale often are used for
+ *   Asian languages.
+ * - if locale is C the we use pgwstr instead of wstr
  */
 
 #ifdef USE_WIDE_UPPER_LOWER
@@ -447,7 +448,7 @@ p_is##type(TParser *prs) {                                                  \
    }                                                                       \
                                                                            \
    return is##type( *(unsigned char*)( prs->str + prs->state->posbyte ) ); \
-}                                                                          \
+}  \
                                                                            \
 static int                                                                 \
 p_isnot##type(TParser *prs) {                                              \
@@ -719,7 +720,7 @@ p_isignore(TParser *prs)
 static int
 p_ishost(TParser *prs)
 {
-   TParser    *tmpprs = TParserCopyInit(prs);
+   TParser    *tmpprs = TParserCopyInit(prs);
    int         res = 0;
 
    tmpprs->wanthost = true;
@@ -741,7 +742,7 @@ p_ishost(TParser *prs)
 static int
 p_isURLPath(TParser *prs)
 {
-   TParser    *tmpprs = TParserCopyInit(prs);
+   TParser    *tmpprs = TParserCopyInit(prs);
    int         res = 0;
 
    tmpprs->state = newTParserPosition(tmpprs->state);
@@ -773,269 +774,269 @@ p_isspecial(TParser *prs)
    /*
     * pg_dsplen could return -1 which means error or control character
     */
-   if ( pg_dsplen(prs->str + prs->state->posbyte) == 0 )
+   if (pg_dsplen(prs->str + prs->state->posbyte) == 0)
        return 1;
 
 #ifdef USE_WIDE_UPPER_LOWER
+
    /*
-    * Unicode Characters in the 'Mark, Spacing Combining' Category
-    * That characters are not alpha although they are not breakers
-    * of word too.
-    * Check that only in utf encoding, because other encodings
-    * aren't supported by postgres or even exists.
+    * Unicode Characters in the 'Mark, Spacing Combining' Category That
+    * characters are not alpha although they are not breakers of word too.
+    * Check that only in utf encoding, because other encodings aren't
+    * supported by postgres or even exists.
     */
-   if ( GetDatabaseEncoding() == PG_UTF8 && prs->usewide )
+   if (GetDatabaseEncoding() == PG_UTF8 && prs->usewide)
    {
-       static pg_wchar strange_letter[] = {
-                       /*
-                        * use binary search, so elements
-                        * should be ordered
-                        */
-                       0x0903, /*  DEVANAGARI SIGN VISARGA */
-                       0x093E, /*  DEVANAGARI VOWEL SIGN AA */
-                       0x093F, /*  DEVANAGARI VOWEL SIGN I */
-                       0x0940, /*  DEVANAGARI VOWEL SIGN II */
-                       0x0949, /*  DEVANAGARI VOWEL SIGN CANDRA O */
-                       0x094A, /*  DEVANAGARI VOWEL SIGN SHORT O */
-                       0x094B, /*  DEVANAGARI VOWEL SIGN O */
-                       0x094C, /*  DEVANAGARI VOWEL SIGN AU */
-                       0x0982, /*  BENGALI SIGN ANUSVARA */
-                       0x0983, /*  BENGALI SIGN VISARGA */
-                       0x09BE, /*  BENGALI VOWEL SIGN AA */
-                       0x09BF, /*  BENGALI VOWEL SIGN I */
-                       0x09C0, /*  BENGALI VOWEL SIGN II */
-                       0x09C7, /*  BENGALI VOWEL SIGN E */
-                       0x09C8, /*  BENGALI VOWEL SIGN AI */
-                       0x09CB, /*  BENGALI VOWEL SIGN O */
-                       0x09CC, /*  BENGALI VOWEL SIGN AU */
-                       0x09D7, /*  BENGALI AU LENGTH MARK */
-                       0x0A03, /*  GURMUKHI SIGN VISARGA */
-                       0x0A3E, /*  GURMUKHI VOWEL SIGN AA */
-                       0x0A3F, /*  GURMUKHI VOWEL SIGN I */
-                       0x0A40, /*  GURMUKHI VOWEL SIGN II */
-                       0x0A83, /*  GUJARATI SIGN VISARGA */
-                       0x0ABE, /*  GUJARATI VOWEL SIGN AA */
-                       0x0ABF, /*  GUJARATI VOWEL SIGN I */
-                       0x0AC0, /*  GUJARATI VOWEL SIGN II */
-                       0x0AC9, /*  GUJARATI VOWEL SIGN CANDRA O */
-                       0x0ACB, /*  GUJARATI VOWEL SIGN O */
-                       0x0ACC, /*  GUJARATI VOWEL SIGN AU */
-                       0x0B02, /*  ORIYA SIGN ANUSVARA */
-                       0x0B03, /*  ORIYA SIGN VISARGA */
-                       0x0B3E, /*  ORIYA VOWEL SIGN AA */
-                       0x0B40, /*  ORIYA VOWEL SIGN II */
-                       0x0B47, /*  ORIYA VOWEL SIGN E */
-                       0x0B48, /*  ORIYA VOWEL SIGN AI */
-                       0x0B4B, /*  ORIYA VOWEL SIGN O */
-                       0x0B4C, /*  ORIYA VOWEL SIGN AU */
-                       0x0B57, /*  ORIYA AU LENGTH MARK */
-                       0x0BBE, /*  TAMIL VOWEL SIGN AA */
-                       0x0BBF, /*  TAMIL VOWEL SIGN I */
-                       0x0BC1, /*  TAMIL VOWEL SIGN U */
-                       0x0BC2, /*  TAMIL VOWEL SIGN UU */
-                       0x0BC6, /*  TAMIL VOWEL SIGN E */
-                       0x0BC7, /*  TAMIL VOWEL SIGN EE */
-                       0x0BC8, /*  TAMIL VOWEL SIGN AI */
-                       0x0BCA, /*  TAMIL VOWEL SIGN O */
-                       0x0BCB, /*  TAMIL VOWEL SIGN OO */
-                       0x0BCC, /*  TAMIL VOWEL SIGN AU */
-                       0x0BD7, /*  TAMIL AU LENGTH MARK */
-                       0x0C01, /*  TELUGU SIGN CANDRABINDU */
-                       0x0C02, /*  TELUGU SIGN ANUSVARA */
-                       0x0C03, /*  TELUGU SIGN VISARGA */
-                       0x0C41, /*  TELUGU VOWEL SIGN U */
-                       0x0C42, /*  TELUGU VOWEL SIGN UU */
-                       0x0C43, /*  TELUGU VOWEL SIGN VOCALIC R */
-                       0x0C44, /*  TELUGU VOWEL SIGN VOCALIC RR */
-                       0x0C82, /*  KANNADA SIGN ANUSVARA */
-                       0x0C83, /*  KANNADA SIGN VISARGA */
-                       0x0CBE, /*  KANNADA VOWEL SIGN AA */
-                       0x0CC0, /*  KANNADA VOWEL SIGN II */
-                       0x0CC1, /*  KANNADA VOWEL SIGN U */
-                       0x0CC2, /*  KANNADA VOWEL SIGN UU */
-                       0x0CC3, /*  KANNADA VOWEL SIGN VOCALIC R */
-                       0x0CC4, /*  KANNADA VOWEL SIGN VOCALIC RR */
-                       0x0CC7, /*  KANNADA VOWEL SIGN EE */
-                       0x0CC8, /*  KANNADA VOWEL SIGN AI */
-                       0x0CCA, /*  KANNADA VOWEL SIGN O */
-                       0x0CCB, /*  KANNADA VOWEL SIGN OO */
-                       0x0CD5, /*  KANNADA LENGTH MARK */
-                       0x0CD6, /*  KANNADA AI LENGTH MARK */
-                       0x0D02, /*  MALAYALAM SIGN ANUSVARA */
-                       0x0D03, /*  MALAYALAM SIGN VISARGA */
-                       0x0D3E, /*  MALAYALAM VOWEL SIGN AA */
-                       0x0D3F, /*  MALAYALAM VOWEL SIGN I */
-                       0x0D40, /*  MALAYALAM VOWEL SIGN II */
-                       0x0D46, /*  MALAYALAM VOWEL SIGN E */
-                       0x0D47, /*  MALAYALAM VOWEL SIGN EE */
-                       0x0D48, /*  MALAYALAM VOWEL SIGN AI */
-                       0x0D4A, /*  MALAYALAM VOWEL SIGN O */
-                       0x0D4B, /*  MALAYALAM VOWEL SIGN OO */
-                       0x0D4C, /*  MALAYALAM VOWEL SIGN AU */
-                       0x0D57, /*  MALAYALAM AU LENGTH MARK */
-                       0x0D82, /*  SINHALA SIGN ANUSVARAYA */
-                       0x0D83, /*  SINHALA SIGN VISARGAYA */
-                       0x0DCF, /*  SINHALA VOWEL SIGN AELA-PILLA */
-                       0x0DD0, /*  SINHALA VOWEL SIGN KETTI AEDA-PILLA */
-                       0x0DD1, /*  SINHALA VOWEL SIGN DIGA AEDA-PILLA */
-                       0x0DD8, /*  SINHALA VOWEL SIGN GAETTA-PILLA */
-                       0x0DD9, /*  SINHALA VOWEL SIGN KOMBUVA */
-                       0x0DDA, /*  SINHALA VOWEL SIGN DIGA KOMBUVA */
-                       0x0DDB, /*  SINHALA VOWEL SIGN KOMBU DEKA */
-                       0x0DDC, /*  SINHALA VOWEL SIGN KOMBUVA HAA AELA-PILLA */
-                       0x0DDD, /*  SINHALA VOWEL SIGN KOMBUVA HAA DIGA AELA-PILLA */
-                       0x0DDE, /*  SINHALA VOWEL SIGN KOMBUVA HAA GAYANUKITTA */
-                       0x0DDF, /*  SINHALA VOWEL SIGN GAYANUKITTA */
-                       0x0DF2, /*  SINHALA VOWEL SIGN DIGA GAETTA-PILLA */
-                       0x0DF3, /*  SINHALA VOWEL SIGN DIGA GAYANUKITTA */
-                       0x0F3E, /*  TIBETAN SIGN YAR TSHES */
-                       0x0F3F, /*  TIBETAN SIGN MAR TSHES */
-                       0x0F7F, /*  TIBETAN SIGN RNAM BCAD */
-                       0x102B, /*  MYANMAR VOWEL SIGN TALL AA */
-                       0x102C, /*  MYANMAR VOWEL SIGN AA */
-                       0x1031, /*  MYANMAR VOWEL SIGN E */
-                       0x1038, /*  MYANMAR SIGN VISARGA */
-                       0x103B, /*  MYANMAR CONSONANT SIGN MEDIAL YA */
-                       0x103C, /*  MYANMAR CONSONANT SIGN MEDIAL RA */
-                       0x1056, /*  MYANMAR VOWEL SIGN VOCALIC R */
-                       0x1057, /*  MYANMAR VOWEL SIGN VOCALIC RR */
-                       0x1062, /*  MYANMAR VOWEL SIGN SGAW KAREN EU */
-                       0x1063, /*  MYANMAR TONE MARK SGAW KAREN HATHI */
-                       0x1064, /*  MYANMAR TONE MARK SGAW KAREN KE PHO */
-                       0x1067, /*  MYANMAR VOWEL SIGN WESTERN PWO KAREN EU */
-                       0x1068, /*  MYANMAR VOWEL SIGN WESTERN PWO KAREN UE */
-                       0x1069, /*  MYANMAR SIGN WESTERN PWO KAREN TONE-1 */
-                       0x106A, /*  MYANMAR SIGN WESTERN PWO KAREN TONE-2 */
-                       0x106B, /*  MYANMAR SIGN WESTERN PWO KAREN TONE-3 */
-                       0x106C, /*  MYANMAR SIGN WESTERN PWO KAREN TONE-4 */
-                       0x106D, /*  MYANMAR SIGN WESTERN PWO KAREN TONE-5 */
-                       0x1083, /*  MYANMAR VOWEL SIGN SHAN AA */
-                       0x1084, /*  MYANMAR VOWEL SIGN SHAN E */
-                       0x1087, /*  MYANMAR SIGN SHAN TONE-2 */
-                       0x1088, /*  MYANMAR SIGN SHAN TONE-3 */
-                       0x1089, /*  MYANMAR SIGN SHAN TONE-5 */
-                       0x108A, /*  MYANMAR SIGN SHAN TONE-6 */
-                       0x108B, /*  MYANMAR SIGN SHAN COUNCIL TONE-2 */
-                       0x108C, /*  MYANMAR SIGN SHAN COUNCIL TONE-3 */
-                       0x108F, /*  MYANMAR SIGN RUMAI PALAUNG TONE-5 */
-                       0x17B6, /*  KHMER VOWEL SIGN AA */
-                       0x17BE, /*  KHMER VOWEL SIGN OE */
-                       0x17BF, /*  KHMER VOWEL SIGN YA */
-                       0x17C0, /*  KHMER VOWEL SIGN IE */
-                       0x17C1, /*  KHMER VOWEL SIGN E */
-                       0x17C2, /*  KHMER VOWEL SIGN AE */
-                       0x17C3, /*  KHMER VOWEL SIGN AI */
-                       0x17C4, /*  KHMER VOWEL SIGN OO */
-                       0x17C5, /*  KHMER VOWEL SIGN AU */
-                       0x17C7, /*  KHMER SIGN REAHMUK */
-                       0x17C8, /*  KHMER SIGN YUUKALEAPINTU */
-                       0x1923, /*  LIMBU VOWEL SIGN EE */
-                       0x1924, /*  LIMBU VOWEL SIGN AI */
-                       0x1925, /*  LIMBU VOWEL SIGN OO */
-                       0x1926, /*  LIMBU VOWEL SIGN AU */
-                       0x1929, /*  LIMBU SUBJOINED LETTER YA */
-                       0x192A, /*  LIMBU SUBJOINED LETTER RA */
-                       0x192B, /*  LIMBU SUBJOINED LETTER WA */
-                       0x1930, /*  LIMBU SMALL LETTER KA */
-                       0x1931, /*  LIMBU SMALL LETTER NGA */
-                       0x1933, /*  LIMBU SMALL LETTER TA */
-                       0x1934, /*  LIMBU SMALL LETTER NA */
-                       0x1935, /*  LIMBU SMALL LETTER PA */
-                       0x1936, /*  LIMBU SMALL LETTER MA */
-                       0x1937, /*  LIMBU SMALL LETTER RA */
-                       0x1938, /*  LIMBU SMALL LETTER LA */
-                       0x19B0, /*  NEW TAI LUE VOWEL SIGN VOWEL SHORTENER */
-                       0x19B1, /*  NEW TAI LUE VOWEL SIGN AA */
-                       0x19B2, /*  NEW TAI LUE VOWEL SIGN II */
-                       0x19B3, /*  NEW TAI LUE VOWEL SIGN U */
-                       0x19B4, /*  NEW TAI LUE VOWEL SIGN UU */
-                       0x19B5, /*  NEW TAI LUE VOWEL SIGN E */
-                       0x19B6, /*  NEW TAI LUE VOWEL SIGN AE */
-                       0x19B7, /*  NEW TAI LUE VOWEL SIGN O */
-                       0x19B8, /*  NEW TAI LUE VOWEL SIGN OA */
-                       0x19B9, /*  NEW TAI LUE VOWEL SIGN UE */
-                       0x19BA, /*  NEW TAI LUE VOWEL SIGN AY */
-                       0x19BB, /*  NEW TAI LUE VOWEL SIGN AAY */
-                       0x19BC, /*  NEW TAI LUE VOWEL SIGN UY */
-                       0x19BD, /*  NEW TAI LUE VOWEL SIGN OY */
-                       0x19BE, /*  NEW TAI LUE VOWEL SIGN OAY */
-                       0x19BF, /*  NEW TAI LUE VOWEL SIGN UEY */
-                       0x19C0, /*  NEW TAI LUE VOWEL SIGN IY */
-                       0x19C8, /*  NEW TAI LUE TONE MARK-1 */
-                       0x19C9, /*  NEW TAI LUE TONE MARK-2 */
-                       0x1A19, /*  BUGINESE VOWEL SIGN E */
-                       0x1A1A, /*  BUGINESE VOWEL SIGN O */
-                       0x1A1B, /*  BUGINESE VOWEL SIGN AE */
-                       0x1B04, /*  BALINESE SIGN BISAH */
-                       0x1B35, /*  BALINESE VOWEL SIGN TEDUNG */
-                       0x1B3B, /*  BALINESE VOWEL SIGN RA REPA TEDUNG */
-                       0x1B3D, /*  BALINESE VOWEL SIGN LA LENGA TEDUNG */
-                       0x1B3E, /*  BALINESE VOWEL SIGN TALING */
-                       0x1B3F, /*  BALINESE VOWEL SIGN TALING REPA */
-                       0x1B40, /*  BALINESE VOWEL SIGN TALING TEDUNG */
-                       0x1B41, /*  BALINESE VOWEL SIGN TALING REPA TEDUNG */
-                       0x1B43, /*  BALINESE VOWEL SIGN PEPET TEDUNG */
-                       0x1B44, /*  BALINESE ADEG ADEG */
-                       0x1B82, /*  SUNDANESE SIGN PANGWISAD */
-                       0x1BA1, /*  SUNDANESE CONSONANT SIGN PAMINGKAL */
-                       0x1BA6, /*  SUNDANESE VOWEL SIGN PANAELAENG */
-                       0x1BA7, /*  SUNDANESE VOWEL SIGN PANOLONG */
-                       0x1BAA, /*  SUNDANESE SIGN PAMAAEH */
-                       0x1C24, /*  LEPCHA SUBJOINED LETTER YA */
-                       0x1C25, /*  LEPCHA SUBJOINED LETTER RA */
-                       0x1C26, /*  LEPCHA VOWEL SIGN AA */
-                       0x1C27, /*  LEPCHA VOWEL SIGN I */
-                       0x1C28, /*  LEPCHA VOWEL SIGN O */
-                       0x1C29, /*  LEPCHA VOWEL SIGN OO */
-                       0x1C2A, /*  LEPCHA VOWEL SIGN U */
-                       0x1C2B, /*  LEPCHA VOWEL SIGN UU */
-                       0x1C34, /*  LEPCHA CONSONANT SIGN NYIN-DO */
-                       0x1C35, /*  LEPCHA CONSONANT SIGN KANG */
-                       0xA823, /*  SYLOTI NAGRI VOWEL SIGN A */
-                       0xA824, /*  SYLOTI NAGRI VOWEL SIGN I */
-                       0xA827, /*  SYLOTI NAGRI VOWEL SIGN OO */
-                       0xA880, /*  SAURASHTRA SIGN ANUSVARA */
-                       0xA881, /*  SAURASHTRA SIGN VISARGA */
-                       0xA8B4, /*  SAURASHTRA CONSONANT SIGN HAARU */
-                       0xA8B5, /*  SAURASHTRA VOWEL SIGN AA */
-                       0xA8B6, /*  SAURASHTRA VOWEL SIGN I */
-                       0xA8B7, /*  SAURASHTRA VOWEL SIGN II */
-                       0xA8B8, /*  SAURASHTRA VOWEL SIGN U */
-                       0xA8B9, /*  SAURASHTRA VOWEL SIGN UU */
-                       0xA8BA, /*  SAURASHTRA VOWEL SIGN VOCALIC R */
-                       0xA8BB, /*  SAURASHTRA VOWEL SIGN VOCALIC RR */
-                       0xA8BC, /*  SAURASHTRA VOWEL SIGN VOCALIC L */
-                       0xA8BD, /*  SAURASHTRA VOWEL SIGN VOCALIC LL */
-                       0xA8BE, /*  SAURASHTRA VOWEL SIGN E */
-                       0xA8BF, /*  SAURASHTRA VOWEL SIGN EE */
-                       0xA8C0, /*  SAURASHTRA VOWEL SIGN AI */
-                       0xA8C1, /*  SAURASHTRA VOWEL SIGN O */
-                       0xA8C2, /*  SAURASHTRA VOWEL SIGN OO */
-                       0xA8C3, /*  SAURASHTRA VOWEL SIGN AU */
-                       0xA952, /*  REJANG CONSONANT SIGN H */
-                       0xA953, /*  REJANG VIRAMA */
-                       0xAA2F, /*  CHAM VOWEL SIGN O */
-                       0xAA30, /*  CHAM VOWEL SIGN AI */
-                       0xAA33, /*  CHAM CONSONANT SIGN YA */
-                       0xAA34, /*  CHAM CONSONANT SIGN RA */
-                       0xAA4D  /*  CHAM CONSONANT SIGN FINAL H */
-                   };
-       pg_wchar    *StopLow = strange_letter,
-                   *StopHigh = strange_letter + lengthof(strange_letter),
-                   *StopMiddle;
+       static pg_wchar strange_letter[] = {
+           /*
+            * use binary search, so elements should be ordered
+            */
+           0x0903,             /* DEVANAGARI SIGN VISARGA */
+           0x093E,             /* DEVANAGARI VOWEL SIGN AA */
+           0x093F,             /* DEVANAGARI VOWEL SIGN I */
+           0x0940,             /* DEVANAGARI VOWEL SIGN II */
+           0x0949,             /* DEVANAGARI VOWEL SIGN CANDRA O */
+           0x094A,             /* DEVANAGARI VOWEL SIGN SHORT O */
+           0x094B,             /* DEVANAGARI VOWEL SIGN O */
+           0x094C,             /* DEVANAGARI VOWEL SIGN AU */
+           0x0982,             /* BENGALI SIGN ANUSVARA */
+           0x0983,             /* BENGALI SIGN VISARGA */
+           0x09BE,             /* BENGALI VOWEL SIGN AA */
+           0x09BF,             /* BENGALI VOWEL SIGN I */
+           0x09C0,             /* BENGALI VOWEL SIGN II */
+           0x09C7,             /* BENGALI VOWEL SIGN E */
+           0x09C8,             /* BENGALI VOWEL SIGN AI */
+           0x09CB,             /* BENGALI VOWEL SIGN O */
+           0x09CC,             /* BENGALI VOWEL SIGN AU */
+           0x09D7,             /* BENGALI AU LENGTH MARK */
+           0x0A03,             /* GURMUKHI SIGN VISARGA */
+           0x0A3E,             /* GURMUKHI VOWEL SIGN AA */
+           0x0A3F,             /* GURMUKHI VOWEL SIGN I */
+           0x0A40,             /* GURMUKHI VOWEL SIGN II */
+           0x0A83,             /* GUJARATI SIGN VISARGA */
+           0x0ABE,             /* GUJARATI VOWEL SIGN AA */
+           0x0ABF,             /* GUJARATI VOWEL SIGN I */
+           0x0AC0,             /* GUJARATI VOWEL SIGN II */
+           0x0AC9,             /* GUJARATI VOWEL SIGN CANDRA O */
+           0x0ACB,             /* GUJARATI VOWEL SIGN O */
+           0x0ACC,             /* GUJARATI VOWEL SIGN AU */
+           0x0B02,             /* ORIYA SIGN ANUSVARA */
+           0x0B03,             /* ORIYA SIGN VISARGA */
+           0x0B3E,             /* ORIYA VOWEL SIGN AA */
+           0x0B40,             /* ORIYA VOWEL SIGN II */
+           0x0B47,             /* ORIYA VOWEL SIGN E */
+           0x0B48,             /* ORIYA VOWEL SIGN AI */
+           0x0B4B,             /* ORIYA VOWEL SIGN O */
+           0x0B4C,             /* ORIYA VOWEL SIGN AU */
+           0x0B57,             /* ORIYA AU LENGTH MARK */
+           0x0BBE,             /* TAMIL VOWEL SIGN AA */
+           0x0BBF,             /* TAMIL VOWEL SIGN I */
+           0x0BC1,             /* TAMIL VOWEL SIGN U */
+           0x0BC2,             /* TAMIL VOWEL SIGN UU */
+           0x0BC6,             /* TAMIL VOWEL SIGN E */
+           0x0BC7,             /* TAMIL VOWEL SIGN EE */
+           0x0BC8,             /* TAMIL VOWEL SIGN AI */
+           0x0BCA,             /* TAMIL VOWEL SIGN O */
+           0x0BCB,             /* TAMIL VOWEL SIGN OO */
+           0x0BCC,             /* TAMIL VOWEL SIGN AU */
+           0x0BD7,             /* TAMIL AU LENGTH MARK */
+           0x0C01,             /* TELUGU SIGN CANDRABINDU */
+           0x0C02,             /* TELUGU SIGN ANUSVARA */
+           0x0C03,             /* TELUGU SIGN VISARGA */
+           0x0C41,             /* TELUGU VOWEL SIGN U */
+           0x0C42,             /* TELUGU VOWEL SIGN UU */
+           0x0C43,             /* TELUGU VOWEL SIGN VOCALIC R */
+           0x0C44,             /* TELUGU VOWEL SIGN VOCALIC RR */
+           0x0C82,             /* KANNADA SIGN ANUSVARA */
+           0x0C83,             /* KANNADA SIGN VISARGA */
+           0x0CBE,             /* KANNADA VOWEL SIGN AA */
+           0x0CC0,             /* KANNADA VOWEL SIGN II */
+           0x0CC1,             /* KANNADA VOWEL SIGN U */
+           0x0CC2,             /* KANNADA VOWEL SIGN UU */
+           0x0CC3,             /* KANNADA VOWEL SIGN VOCALIC R */
+           0x0CC4,             /* KANNADA VOWEL SIGN VOCALIC RR */
+           0x0CC7,             /* KANNADA VOWEL SIGN EE */
+           0x0CC8,             /* KANNADA VOWEL SIGN AI */
+           0x0CCA,             /* KANNADA VOWEL SIGN O */
+           0x0CCB,             /* KANNADA VOWEL SIGN OO */
+           0x0CD5,             /* KANNADA LENGTH MARK */
+           0x0CD6,             /* KANNADA AI LENGTH MARK */
+           0x0D02,             /* MALAYALAM SIGN ANUSVARA */
+           0x0D03,             /* MALAYALAM SIGN VISARGA */
+           0x0D3E,             /* MALAYALAM VOWEL SIGN AA */
+           0x0D3F,             /* MALAYALAM VOWEL SIGN I */
+           0x0D40,             /* MALAYALAM VOWEL SIGN II */
+           0x0D46,             /* MALAYALAM VOWEL SIGN E */
+           0x0D47,             /* MALAYALAM VOWEL SIGN EE */
+           0x0D48,             /* MALAYALAM VOWEL SIGN AI */
+           0x0D4A,             /* MALAYALAM VOWEL SIGN O */
+           0x0D4B,             /* MALAYALAM VOWEL SIGN OO */
+           0x0D4C,             /* MALAYALAM VOWEL SIGN AU */
+           0x0D57,             /* MALAYALAM AU LENGTH MARK */
+           0x0D82,             /* SINHALA SIGN ANUSVARAYA */
+           0x0D83,             /* SINHALA SIGN VISARGAYA */
+           0x0DCF,             /* SINHALA VOWEL SIGN AELA-PILLA */
+           0x0DD0,             /* SINHALA VOWEL SIGN KETTI AEDA-PILLA */
+           0x0DD1,             /* SINHALA VOWEL SIGN DIGA AEDA-PILLA */
+           0x0DD8,             /* SINHALA VOWEL SIGN GAETTA-PILLA */
+           0x0DD9,             /* SINHALA VOWEL SIGN KOMBUVA */
+           0x0DDA,             /* SINHALA VOWEL SIGN DIGA KOMBUVA */
+           0x0DDB,             /* SINHALA VOWEL SIGN KOMBU DEKA */
+           0x0DDC,             /* SINHALA VOWEL SIGN KOMBUVA HAA AELA-PILLA */
+           0x0DDD,             /* SINHALA VOWEL SIGN KOMBUVA HAA DIGA
+                                * AELA-PILLA */
+           0x0DDE,             /* SINHALA VOWEL SIGN KOMBUVA HAA GAYANUKITTA */
+           0x0DDF,             /* SINHALA VOWEL SIGN GAYANUKITTA */
+           0x0DF2,             /* SINHALA VOWEL SIGN DIGA GAETTA-PILLA */
+           0x0DF3,             /* SINHALA VOWEL SIGN DIGA GAYANUKITTA */
+           0x0F3E,             /* TIBETAN SIGN YAR TSHES */
+           0x0F3F,             /* TIBETAN SIGN MAR TSHES */
+           0x0F7F,             /* TIBETAN SIGN RNAM BCAD */
+           0x102B,             /* MYANMAR VOWEL SIGN TALL AA */
+           0x102C,             /* MYANMAR VOWEL SIGN AA */
+           0x1031,             /* MYANMAR VOWEL SIGN E */
+           0x1038,             /* MYANMAR SIGN VISARGA */
+           0x103B,             /* MYANMAR CONSONANT SIGN MEDIAL YA */
+           0x103C,             /* MYANMAR CONSONANT SIGN MEDIAL RA */
+           0x1056,             /* MYANMAR VOWEL SIGN VOCALIC R */
+           0x1057,             /* MYANMAR VOWEL SIGN VOCALIC RR */
+           0x1062,             /* MYANMAR VOWEL SIGN SGAW KAREN EU */
+           0x1063,             /* MYANMAR TONE MARK SGAW KAREN HATHI */
+           0x1064,             /* MYANMAR TONE MARK SGAW KAREN KE PHO */
+           0x1067,             /* MYANMAR VOWEL SIGN WESTERN PWO KAREN EU */
+           0x1068,             /* MYANMAR VOWEL SIGN WESTERN PWO KAREN UE */
+           0x1069,             /* MYANMAR SIGN WESTERN PWO KAREN TONE-1 */
+           0x106A,             /* MYANMAR SIGN WESTERN PWO KAREN TONE-2 */
+           0x106B,             /* MYANMAR SIGN WESTERN PWO KAREN TONE-3 */
+           0x106C,             /* MYANMAR SIGN WESTERN PWO KAREN TONE-4 */
+           0x106D,             /* MYANMAR SIGN WESTERN PWO KAREN TONE-5 */
+           0x1083,             /* MYANMAR VOWEL SIGN SHAN AA */
+           0x1084,             /* MYANMAR VOWEL SIGN SHAN E */
+           0x1087,             /* MYANMAR SIGN SHAN TONE-2 */
+           0x1088,             /* MYANMAR SIGN SHAN TONE-3 */
+           0x1089,             /* MYANMAR SIGN SHAN TONE-5 */
+           0x108A,             /* MYANMAR SIGN SHAN TONE-6 */
+           0x108B,             /* MYANMAR SIGN SHAN COUNCIL TONE-2 */
+           0x108C,             /* MYANMAR SIGN SHAN COUNCIL TONE-3 */
+           0x108F,             /* MYANMAR SIGN RUMAI PALAUNG TONE-5 */
+           0x17B6,             /* KHMER VOWEL SIGN AA */
+           0x17BE,             /* KHMER VOWEL SIGN OE */
+           0x17BF,             /* KHMER VOWEL SIGN YA */
+           0x17C0,             /* KHMER VOWEL SIGN IE */
+           0x17C1,             /* KHMER VOWEL SIGN E */
+           0x17C2,             /* KHMER VOWEL SIGN AE */
+           0x17C3,             /* KHMER VOWEL SIGN AI */
+           0x17C4,             /* KHMER VOWEL SIGN OO */
+           0x17C5,             /* KHMER VOWEL SIGN AU */
+           0x17C7,             /* KHMER SIGN REAHMUK */
+           0x17C8,             /* KHMER SIGN YUUKALEAPINTU */
+           0x1923,             /* LIMBU VOWEL SIGN EE */
+           0x1924,             /* LIMBU VOWEL SIGN AI */
+           0x1925,             /* LIMBU VOWEL SIGN OO */
+           0x1926,             /* LIMBU VOWEL SIGN AU */
+           0x1929,             /* LIMBU SUBJOINED LETTER YA */
+           0x192A,             /* LIMBU SUBJOINED LETTER RA */
+           0x192B,             /* LIMBU SUBJOINED LETTER WA */
+           0x1930,             /* LIMBU SMALL LETTER KA */
+           0x1931,             /* LIMBU SMALL LETTER NGA */
+           0x1933,             /* LIMBU SMALL LETTER TA */
+           0x1934,             /* LIMBU SMALL LETTER NA */
+           0x1935,             /* LIMBU SMALL LETTER PA */
+           0x1936,             /* LIMBU SMALL LETTER MA */
+           0x1937,             /* LIMBU SMALL LETTER RA */
+           0x1938,             /* LIMBU SMALL LETTER LA */
+           0x19B0,             /* NEW TAI LUE VOWEL SIGN VOWEL SHORTENER */
+           0x19B1,             /* NEW TAI LUE VOWEL SIGN AA */
+           0x19B2,             /* NEW TAI LUE VOWEL SIGN II */
+           0x19B3,             /* NEW TAI LUE VOWEL SIGN U */
+           0x19B4,             /* NEW TAI LUE VOWEL SIGN UU */
+           0x19B5,             /* NEW TAI LUE VOWEL SIGN E */
+           0x19B6,             /* NEW TAI LUE VOWEL SIGN AE */
+           0x19B7,             /* NEW TAI LUE VOWEL SIGN O */
+           0x19B8,             /* NEW TAI LUE VOWEL SIGN OA */
+           0x19B9,             /* NEW TAI LUE VOWEL SIGN UE */
+           0x19BA,             /* NEW TAI LUE VOWEL SIGN AY */
+           0x19BB,             /* NEW TAI LUE VOWEL SIGN AAY */
+           0x19BC,             /* NEW TAI LUE VOWEL SIGN UY */
+           0x19BD,             /* NEW TAI LUE VOWEL SIGN OY */
+           0x19BE,             /* NEW TAI LUE VOWEL SIGN OAY */
+           0x19BF,             /* NEW TAI LUE VOWEL SIGN UEY */
+           0x19C0,             /* NEW TAI LUE VOWEL SIGN IY */
+           0x19C8,             /* NEW TAI LUE TONE MARK-1 */
+           0x19C9,             /* NEW TAI LUE TONE MARK-2 */
+           0x1A19,             /* BUGINESE VOWEL SIGN E */
+           0x1A1A,             /* BUGINESE VOWEL SIGN O */
+           0x1A1B,             /* BUGINESE VOWEL SIGN AE */
+           0x1B04,             /* BALINESE SIGN BISAH */
+           0x1B35,             /* BALINESE VOWEL SIGN TEDUNG */
+           0x1B3B,             /* BALINESE VOWEL SIGN RA REPA TEDUNG */
+           0x1B3D,             /* BALINESE VOWEL SIGN LA LENGA TEDUNG */
+           0x1B3E,             /* BALINESE VOWEL SIGN TALING */
+           0x1B3F,             /* BALINESE VOWEL SIGN TALING REPA */
+           0x1B40,             /* BALINESE VOWEL SIGN TALING TEDUNG */
+           0x1B41,             /* BALINESE VOWEL SIGN TALING REPA TEDUNG */
+           0x1B43,             /* BALINESE VOWEL SIGN PEPET TEDUNG */
+           0x1B44,             /* BALINESE ADEG ADEG */
+           0x1B82,             /* SUNDANESE SIGN PANGWISAD */
+           0x1BA1,             /* SUNDANESE CONSONANT SIGN PAMINGKAL */
+           0x1BA6,             /* SUNDANESE VOWEL SIGN PANAELAENG */
+           0x1BA7,             /* SUNDANESE VOWEL SIGN PANOLONG */
+           0x1BAA,             /* SUNDANESE SIGN PAMAAEH */
+           0x1C24,             /* LEPCHA SUBJOINED LETTER YA */
+           0x1C25,             /* LEPCHA SUBJOINED LETTER RA */
+           0x1C26,             /* LEPCHA VOWEL SIGN AA */
+           0x1C27,             /* LEPCHA VOWEL SIGN I */
+           0x1C28,             /* LEPCHA VOWEL SIGN O */
+           0x1C29,             /* LEPCHA VOWEL SIGN OO */
+           0x1C2A,             /* LEPCHA VOWEL SIGN U */
+           0x1C2B,             /* LEPCHA VOWEL SIGN UU */
+           0x1C34,             /* LEPCHA CONSONANT SIGN NYIN-DO */
+           0x1C35,             /* LEPCHA CONSONANT SIGN KANG */
+           0xA823,             /* SYLOTI NAGRI VOWEL SIGN A */
+           0xA824,             /* SYLOTI NAGRI VOWEL SIGN I */
+           0xA827,             /* SYLOTI NAGRI VOWEL SIGN OO */
+           0xA880,             /* SAURASHTRA SIGN ANUSVARA */
+           0xA881,             /* SAURASHTRA SIGN VISARGA */
+           0xA8B4,             /* SAURASHTRA CONSONANT SIGN HAARU */
+           0xA8B5,             /* SAURASHTRA VOWEL SIGN AA */
+           0xA8B6,             /* SAURASHTRA VOWEL SIGN I */
+           0xA8B7,             /* SAURASHTRA VOWEL SIGN II */
+           0xA8B8,             /* SAURASHTRA VOWEL SIGN U */
+           0xA8B9,             /* SAURASHTRA VOWEL SIGN UU */
+           0xA8BA,             /* SAURASHTRA VOWEL SIGN VOCALIC R */
+           0xA8BB,             /* SAURASHTRA VOWEL SIGN VOCALIC RR */
+           0xA8BC,             /* SAURASHTRA VOWEL SIGN VOCALIC L */
+           0xA8BD,             /* SAURASHTRA VOWEL SIGN VOCALIC LL */
+           0xA8BE,             /* SAURASHTRA VOWEL SIGN E */
+           0xA8BF,             /* SAURASHTRA VOWEL SIGN EE */
+           0xA8C0,             /* SAURASHTRA VOWEL SIGN AI */
+           0xA8C1,             /* SAURASHTRA VOWEL SIGN O */
+           0xA8C2,             /* SAURASHTRA VOWEL SIGN OO */
+           0xA8C3,             /* SAURASHTRA VOWEL SIGN AU */
+           0xA952,             /* REJANG CONSONANT SIGN H */
+           0xA953,             /* REJANG VIRAMA */
+           0xAA2F,             /* CHAM VOWEL SIGN O */
+           0xAA30,             /* CHAM VOWEL SIGN AI */
+           0xAA33,             /* CHAM CONSONANT SIGN YA */
+           0xAA34,             /* CHAM CONSONANT SIGN RA */
+           0xAA4D              /* CHAM CONSONANT SIGN FINAL H */
+       };
+       pg_wchar   *StopLow = strange_letter,
+                  *StopHigh = strange_letter + lengthof(strange_letter),
+                  *StopMiddle;
        pg_wchar    c;
 
-       if ( prs->pgwstr )
+       if (prs->pgwstr)
            c = *(prs->pgwstr + prs->state->poschar);
        else
            c = (pg_wchar) *(prs->wstr + prs->state->poschar);
 
-       while( StopLow < StopHigh )
+       while (StopLow < StopHigh)
        {
            StopMiddle = StopLow + ((StopHigh - StopLow) >> 1);
-           if ( *StopMiddle == c )
+           if (*StopMiddle == c)
                return 1;
-           else if ( *StopMiddle < c )
+           else if (*StopMiddle < c)
                StopLow = StopMiddle + 1;
            else
                StopHigh = StopMiddle;
@@ -1288,7 +1289,7 @@ static const TParserStateActionItem actionTPS_InTagFirst[] = {
 static const TParserStateActionItem actionTPS_InXMLBegin[] = {
    {p_isEOF, 0, A_POP, TPS_Null, 0, NULL},
    /* <?xml ... */
-    /* XXX do we wants states for the m and l ?  Right now this accepts <?xZ */
+   /* XXX do we wants states for the m and l ?  Right now this accepts <?xZ */
    {p_iseqC, 'x', A_NEXT, TPS_InTag, 0, NULL},
    {NULL, 0, A_POP, TPS_Null, 0, NULL}
 };
@@ -2004,10 +2005,10 @@ prsd_end(PG_FUNCTION_ARGS)
 #define COMPLEXTOKEN(x) ( (x)==URL_T || (x)==NUMHWORD || (x)==ASCIIHWORD || (x)==HWORD )
 #define ENDPUNCTOKEN(x) ( (x)==SPACE )
 
-#define TS_IDIGNORE(x)  ( (x)==TAG_T || (x)==PROTOCOL || (x)==SPACE || (x)==XMLENTITY )
-#define HLIDREPLACE(x)  ( (x)==TAG_T )
-#define HLIDSKIP(x)     ( (x)==URL_T || (x)==NUMHWORD || (x)==ASCIIHWORD || (x)==HWORD )
-#define XMLHLIDSKIP(x)  ( (x)==URL_T || (x)==NUMHWORD || (x)==ASCIIHWORD || (x)==HWORD )
+#define TS_IDIGNORE(x) ( (x)==TAG_T || (x)==PROTOCOL || (x)==SPACE || (x)==XMLENTITY )
+#define HLIDREPLACE(x) ( (x)==TAG_T )
+#define HLIDSKIP(x)        ( (x)==URL_T || (x)==NUMHWORD || (x)==ASCIIHWORD || (x)==HWORD )
+#define XMLHLIDSKIP(x) ( (x)==URL_T || (x)==NUMHWORD || (x)==ASCIIHWORD || (x)==HWORD )
 #define NONWORDTOKEN(x) ( (x)==SPACE || HLIDREPLACE(x) || HLIDSKIP(x) )
 #define NOENDTOKEN(x)  ( NONWORDTOKEN(x) || (x)==SCIENTIFIC || (x)==VERSIONNUMBER || (x)==DECIMAL_T || (x)==SIGNEDINT || (x)==UNSIGNEDINT || TS_IDIGNORE(x) )
 
@@ -2105,7 +2106,7 @@ hlCover(HeadlineParsedText *prs, TSQuery query, int *p, int *q)
 static void
 mark_fragment(HeadlineParsedText *prs, int highlight, int startpos, int endpos)
 {
-   int   i;
+   int         i;
 
    for (i = startpos; i <= endpos; i++)
    {
@@ -2115,7 +2116,7 @@ mark_fragment(HeadlineParsedText *prs, int highlight, int startpos, int endpos)
        {
            if (HLIDREPLACE(prs->words[i].type))
                prs->words[i].replace = 1;
-           else if ( HLIDSKIP(prs->words[i].type) )
+           else if (HLIDSKIP(prs->words[i].type))
                prs->words[i].skip = 1;
        }
        else
@@ -2130,27 +2131,29 @@ mark_fragment(HeadlineParsedText *prs, int highlight, int startpos, int endpos)
 
 typedef struct
 {
-   int4 startpos;
-   int4 endpos;
-   int4 poslen;
-   int4 curlen;
-   int2 in;
-   int2 excluded;
+   int4        startpos;
+   int4        endpos;
+   int4        poslen;
+   int4        curlen;
+   int2        in;
+   int2        excluded;
 } CoverPos;
 
 static void
 get_next_fragment(HeadlineParsedText *prs, int *startpos, int *endpos,
-           int *curlen, int *poslen, int max_words)
+                 int *curlen, int *poslen, int max_words)
 {
-   int i;
-   /* Objective: Generate a fragment of words between startpos and endpos
-    * such that it has at most max_words and both ends has query words.
-    * If the startpos and endpos are the endpoints of the cover and the
-    * cover has fewer words than max_words, then this function should
-    * just return the cover
+   int         i;
+
+   /*
+    * Objective: Generate a fragment of words between startpos and endpos
+    * such that it has at most max_words and both ends has query words. If
+    * the startpos and endpos are the endpoints of the cover and the cover
+    * has fewer words than max_words, then this function should just return
+    * the cover
     */
    /* first move startpos to an item */
-   for(i = *startpos; i <= *endpos; i++)
+   for (i = *startpos; i <= *endpos; i++)
    {
        *startpos = i;
        if (prs->words[i].item && !prs->words[i].repeated)
@@ -2159,7 +2162,7 @@ get_next_fragment(HeadlineParsedText *prs, int *startpos, int *endpos,
    /* cut endpos to have only max_words */
    *curlen = 0;
    *poslen = 0;
-   for(i = *startpos; i <= *endpos && *curlen < max_words; i++)
+   for (i = *startpos; i <= *endpos && *curlen < max_words; i++)
    {
        if (!NONWORDTOKEN(prs->words[i].type))
            *curlen += 1;
@@ -2170,7 +2173,7 @@ get_next_fragment(HeadlineParsedText *prs, int *startpos, int *endpos,
    if (*endpos > i)
    {
        *endpos = i;
-       for(i = *endpos; i >= *startpos; i --)
+       for (i = *endpos; i >= *startpos; i--)
        {
            *endpos = i;
            if (prs->words[i].item && !prs->words[i].repeated)
@@ -2183,22 +2186,30 @@ get_next_fragment(HeadlineParsedText *prs, int *startpos, int *endpos,
 
 static void
 mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
-                        int shortword, int min_words,
-           int max_words, int max_fragments)
+                 int shortword, int min_words,
+                 int max_words, int max_fragments)
 {
-   int4            poslen, curlen, i, f, num_f = 0;
-   int4        stretch, maxstretch, posmarker;
-
-   int4            startpos = 0,
-           endpos   = 0,
-           p        = 0,
-           q        = 0;
+   int4        poslen,
+               curlen,
+               i,
+               f,
+               num_f = 0;
+   int4        stretch,
+               maxstretch,
+               posmarker;
+
+   int4        startpos = 0,
+               endpos = 0,
+               p = 0,
+               q = 0;
 
    int4        numcovers = 0,
-           maxcovers = 32;
+               maxcovers = 32;
 
-   int4            minI, minwords, maxitems;
-   CoverPos    *covers;
+   int4        minI,
+               minwords,
+               maxitems;
+   CoverPos   *covers;
 
    covers = palloc(maxcovers * sizeof(CoverPos));
 
@@ -2206,12 +2217,13 @@ mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
    while (hlCover(prs, query, &p, &q))
    {
        startpos = p;
-       endpos   = q;
+       endpos = q;
 
-       /* Break the cover into smaller fragments such that each fragment
-        * has at most max_words. Also ensure that each end of the fragment
-        * is a query word. This will allow us to stretch the fragment in
-        * either direction
+       /*
+        * Break the cover into smaller fragments such that each fragment has
+        * at most max_words. Also ensure that each end of the fragment is a
+        * query word. This will allow us to stretch the fragment in either
+        * direction
         */
 
        while (startpos <= endpos)
@@ -2220,17 +2232,17 @@ mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
            if (numcovers >= maxcovers)
            {
                maxcovers *= 2;
-               covers     = repalloc(covers, sizeof(CoverPos) * maxcovers);
+               covers = repalloc(covers, sizeof(CoverPos) * maxcovers);
            }
            covers[numcovers].startpos = startpos;
-           covers[numcovers].endpos   = endpos;
-           covers[numcovers].curlen   = curlen;
-           covers[numcovers].poslen   = poslen;
-           covers[numcovers].in       = 0;
+           covers[numcovers].endpos = endpos;
+           covers[numcovers].curlen = curlen;
+           covers[numcovers].poslen = poslen;
+           covers[numcovers].in = 0;
            covers[numcovers].excluded = 0;
-           numcovers ++;
+           numcovers++;
            startpos = endpos + 1;
-           endpos   = q;
+           endpos = q;
        }
        /* move p to generate the next cover */
        p++;
@@ -2242,19 +2254,20 @@ mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
        maxitems = 0;
        minwords = 0x7fffffff;
        minI = -1;
-       /* Choose the cover that contains max items.
-        * In case of tie choose the one with smaller
-        * number of words.
+
+       /*
+        * Choose the cover that contains max items. In case of tie choose the
+        * one with smaller number of words.
         */
-       for (i = 0; i < numcovers; i ++)
+       for (i = 0; i < numcovers; i++)
        {
-           if (!covers[i].in &&  !covers[i].excluded &&
+           if (!covers[i].in && !covers[i].excluded &&
                (maxitems < covers[i].poslen || (maxitems == covers[i].poslen
-               && minwords > covers[i].curlen)))
+                                           && minwords > covers[i].curlen)))
            {
                maxitems = covers[i].poslen;
                minwords = covers[i].curlen;
-               minI     = i;
+               minI = i;
            }
        }
        /* if a cover was found mark it */
@@ -2263,27 +2276,27 @@ mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
            covers[minI].in = 1;
            /* adjust the size of cover */
            startpos = covers[minI].startpos;
-           endpos   = covers[minI].endpos;
-           curlen   = covers[minI].curlen;
+           endpos = covers[minI].endpos;
+           curlen = covers[minI].curlen;
            /* stretch the cover if cover size is lower than max_words */
            if (curlen < max_words)
            {
                /* divide the stretch on both sides of cover */
-               maxstretch = (max_words - curlen)/2;
-               /* first stretch the startpos
-                * stop stretching if
-                *  1. we hit the beginning of document
-                *  2. exceed maxstretch
-                *  3. we hit an already marked fragment
+               maxstretch = (max_words - curlen) / 2;
+
+               /*
+                * first stretch the startpos stop stretching if 1. we hit the
+                * beginning of document 2. exceed maxstretch 3. we hit an
+                * already marked fragment
                 */
-               stretch   = 0;
+               stretch = 0;
                posmarker = startpos;
                for (i = startpos - 1; i >= 0 && stretch < maxstretch && !prs->words[i].in; i--)
                {
                    if (!NONWORDTOKEN(prs->words[i].type))
                    {
-                       curlen  ++;
-                       stretch ++;
+                       curlen++;
+                       stretch++;
                    }
                    posmarker = i;
                }
@@ -2291,35 +2304,35 @@ mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
                for (i = posmarker; i < startpos && (NOENDTOKEN(prs->words[i].type) || prs->words[i].len <= shortword); i++)
                {
                    if (!NONWORDTOKEN(prs->words[i].type))
-                       curlen --;
+                       curlen--;
                }
                startpos = i;
-               /* now stretch the endpos as much as possible*/
+               /* now stretch the endpos as much as possible */
                posmarker = endpos;
                for (i = endpos + 1; i < prs->curwords && curlen < max_words && !prs->words[i].in; i++)
                {
                    if (!NONWORDTOKEN(prs->words[i].type))
-                       curlen  ++;
+                       curlen++;
                    posmarker = i;
                }
                /* cut back endpos till we find a non-short token */
-               for ( i = posmarker; i > endpos && (NOENDTOKEN(prs->words[i].type) || prs->words[i].len <= shortword); i--)
+               for (i = posmarker; i > endpos && (NOENDTOKEN(prs->words[i].type) || prs->words[i].len <= shortword); i--)
                {
                    if (!NONWORDTOKEN(prs->words[i].type))
-                       curlen --;
+                       curlen--;
                }
                endpos = i;
            }
            covers[minI].startpos = startpos;
-           covers[minI].endpos   = endpos;
-           covers[minI].curlen   = curlen;
+           covers[minI].endpos = endpos;
+           covers[minI].curlen = curlen;
            /* Mark the chosen fragments (covers) */
            mark_fragment(prs, highlight, startpos, endpos);
-           num_f ++;
+           num_f++;
            /* exclude overlapping covers */
-           for (i = 0; i < numcovers; i ++)
+           for (i = 0; i < numcovers; i++)
            {
-               if (i != minI && ( (covers[i].startpos >= covers[minI].startpos && covers[i].startpos <= covers[minI].endpos)  || (covers[i].endpos >= covers[minI].startpos && covers[i].endpos <= covers[minI].endpos)))
+               if (i != minI && ((covers[i].startpos >= covers[minI].startpos && covers[i].startpos <= covers[minI].endpos) || (covers[i].endpos >= covers[minI].startpos && covers[i].endpos <= covers[minI].endpos)))
                    covers[i].excluded = 1;
            }
        }
@@ -2327,7 +2340,7 @@ mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
            break;
    }
 
-   /* show at least min_words we have not marked anything*/
+   /* show at least min_words we have not marked anything */
    if (num_f <= 0)
    {
        startpos = endpos = curlen = 0;
@@ -2344,7 +2357,7 @@ mark_hl_fragments(HeadlineParsedText *prs, TSQuery query, int highlight,
 
 static void
 mark_hl_words(HeadlineParsedText *prs, TSQuery query, int highlight,
-       int shortword, int min_words, int max_words)
+             int shortword, int min_words, int max_words)
 {
    int         p = 0,
                q = 0;
@@ -2408,7 +2421,7 @@ mark_hl_words(HeadlineParsedText *prs, TSQuery query, int highlight,
                            curlen++;
                        if (prs->words[i].item && !prs->words[i].repeated)
                            poslen++;
-                       if ( curlen >= max_words )
+                       if (curlen >= max_words)
                            break;
                        if (NOENDTOKEN(prs->words[i].type) || prs->words[i].len <= shortword)
                            continue;
@@ -2472,7 +2485,7 @@ mark_hl_words(HeadlineParsedText *prs, TSQuery query, int highlight,
        {
            if (HLIDREPLACE(prs->words[i].type))
                prs->words[i].replace = 1;
-           else if ( HLIDSKIP(prs->words[i].type) )
+           else if (HLIDSKIP(prs->words[i].type))
                prs->words[i].skip = 1;
        }
        else
@@ -2494,11 +2507,11 @@ prsd_headline(PG_FUNCTION_ARGS)
    TSQuery     query = PG_GETARG_TSQUERY(2);
 
    /* from opt + start and and tag */
-   int         min_words     = 15;
-   int         max_words     = 35;
-   int         shortword     = 3;
+   int         min_words = 15;
+   int         max_words = 35;
+   int         shortword = 3;
    int         max_fragments = 0;
-   int         highlight     = 0;
+   int         highlight = 0;
    ListCell   *l;
 
    /* config */
index 2f27018b25648eaf68737b8ea5f08d49362f3d96..dc75ad86ce2666e651a63649189e191bd465dec9 100644 (file)
@@ -113,7 +113,7 @@ static AclMode convert_role_priv_string(text *priv_type_text);
 static AclResult pg_role_aclcheck(Oid role_oid, Oid roleid, AclMode mode);
 
 static void RoleMembershipCacheCallback(Datum arg, int cacheid, ItemPointer tuplePtr);
-static Oid get_role_oid_or_public(const char *rolname);
+static Oid get_role_oid_or_public(const char *rolname);
 
 
 /*
@@ -4829,7 +4829,7 @@ get_role_oid(const char *rolname, bool missing_ok)
 
 /*
  * get_role_oid_or_public - As above, but return ACL_ID_PUBLIC if the
- *         role name is "public".
+ *     role name is "public".
  */
 static Oid
 get_role_oid_or_public(const char *rolname)
index e023b2458edd9d3e2964459f67a06f149e2a1a35..0869de66cef1e381eea189404cf7ed9a1869eebf 100644 (file)
@@ -72,7 +72,7 @@ typedef struct ArrayIteratorData
    /* current position information, updated on each iteration */
    char       *data_ptr;       /* our current position in the array */
    int         current_item;   /* the item # we're at in the array */
-} ArrayIteratorData;
+}  ArrayIteratorData;
 
 static bool array_isspace(char ch);
 static int ArrayCount(const char *str, int *dim, char typdelim);
@@ -1268,7 +1268,8 @@ array_recv(PG_FUNCTION_ARGS)
         */
        if (dim[i] != 0)
        {
-           int ub = lBound[i] + dim[i] - 1;
+           int         ub = lBound[i] + dim[i] - 1;
+
            if (lBound[i] > ub)
                ereport(ERROR,
                        (errcode(ERRCODE_NUMERIC_VALUE_OUT_OF_RANGE),
index 4c3279759d518d16263ccd0725dceb4be9e4c389..faef6f83813783c01b6518853107449b67e01baf 100644 (file)
@@ -945,11 +945,11 @@ numeric_cash(PG_FUNCTION_ARGS)
 Datum
 int4_cash(PG_FUNCTION_ARGS)
 {
-   int32   amount = PG_GETARG_INT32(0);
-   Cash    result;
-   int     fpoint;
-   int64   scale;
-   int     i;
+   int32       amount = PG_GETARG_INT32(0);
+   Cash        result;
+   int         fpoint;
+   int64       scale;
+   int         i;
    struct lconv *lconvert = PGLC_localeconv();
 
    /* see comments about frac_digits in cash_in() */
@@ -964,7 +964,7 @@ int4_cash(PG_FUNCTION_ARGS)
 
    /* compute amount * scale, checking for overflow */
    result = DatumGetInt64(DirectFunctionCall2(int8mul, Int64GetDatum(amount),
-                          Int64GetDatum(scale)));
+                                              Int64GetDatum(scale)));
 
    PG_RETURN_CASH(result);
 }
@@ -975,11 +975,11 @@ int4_cash(PG_FUNCTION_ARGS)
 Datum
 int8_cash(PG_FUNCTION_ARGS)
 {
-   int64   amount = PG_GETARG_INT64(0);
-   Cash    result;
-   int     fpoint;
-   int64   scale;
-   int     i;
+   int64       amount = PG_GETARG_INT64(0);
+   Cash        result;
+   int         fpoint;
+   int64       scale;
+   int         i;
    struct lconv *lconvert = PGLC_localeconv();
 
    /* see comments about frac_digits in cash_in() */
@@ -994,7 +994,7 @@ int8_cash(PG_FUNCTION_ARGS)
 
    /* compute amount * scale, checking for overflow */
    result = DatumGetInt64(DirectFunctionCall2(int8mul, Int64GetDatum(amount),
-                          Int64GetDatum(scale)));
+                                              Int64GetDatum(scale)));
 
    PG_RETURN_CASH(result);
 }
index f96fa6cb72e846b77750e11ea8953073a2a67ff3..e737e720f5bbd8b4ac2b499153bd6d9b41b75c00 100644 (file)
@@ -472,7 +472,7 @@ date2timestamptz(DateADT dateVal)
 double
 date2timestamp_no_overflow(DateADT dateVal)
 {
-   double  result;
+   double      result;
 
    if (DATE_IS_NOBEGIN(dateVal))
        result = -DBL_MAX;
index 0410b8384e9d18dfb62f8bc6e59239f2da17aa86..db0a6487acffef00013951a9e0ac5e85abf418c8 100644 (file)
@@ -2397,7 +2397,7 @@ DecodeTime(char *str, int fmask, int range,
 
    /* do a sanity check */
 #ifdef HAVE_INT64_TIMESTAMP
-   if (tm->tm_hour < 0 || tm->tm_min < 0 || tm->tm_min > MINS_PER_HOUR -1 ||
+   if (tm->tm_hour < 0 || tm->tm_min < 0 || tm->tm_min > MINS_PER_HOUR - 1 ||
        tm->tm_sec < 0 || tm->tm_sec > SECS_PER_MINUTE ||
        *fsec < INT64CONST(0) ||
        *fsec > USECS_PER_SEC)
index 543a244bf999ce09794c36438ec70c5238550adc..73a6ad32808f6915bf196cf9412f6ddf540dd43c 100644 (file)
@@ -634,7 +634,7 @@ pg_relation_filepath(PG_FUNCTION_ARGS)
            break;
        default:
            elog(ERROR, "invalid relpersistence: %c", relform->relpersistence);
-           backend = InvalidBackendId;     /* placate compiler */
+           backend = InvalidBackendId; /* placate compiler */
            break;
    }
 
index be4f984ed68690b8cb73096cc73dc7be3a77d80d..8f65c84d3052ccc0baf3b58cb1217935fc645452 100644 (file)
@@ -461,7 +461,7 @@ enum_range_internal(Oid enumtypoid, Oid lower, Oid upper)
    Datum      *elems;
    int         max,
                cnt;
-   bool        left_found;
+   bool        left_found;
 
    /*
     * Scan the enum members in order using pg_enum_typid_sortorder_index.
@@ -486,7 +486,7 @@ enum_range_internal(Oid enumtypoid, Oid lower, Oid upper)
 
    while (HeapTupleIsValid(enum_tuple = systable_getnext_ordered(enum_scan, ForwardScanDirection)))
    {
-       Oid     enum_oid = HeapTupleGetOid(enum_tuple);
+       Oid         enum_oid = HeapTupleGetOid(enum_tuple);
 
        if (!left_found && lower == enum_oid)
            left_found = true;
index 45e36f92e5013a0ff745688d60dd48ffc917dac0..f895bbbb8b994d15d10010fb2997a01c3e7ddbc0 100644 (file)
@@ -662,7 +662,7 @@ typedef enum
 
    /* last */
    _DCH_last_
-} DCH_poz;
+}  DCH_poz;
 
 typedef enum
 {
@@ -705,7 +705,7 @@ typedef enum
 
    /* last */
    _NUM_last_
-} NUM_poz;
+}  NUM_poz;
 
 /* ----------
  * KeyWords for DATE-TIME version
@@ -1497,7 +1497,7 @@ str_tolower(const char *buff, size_t nbytes, Oid collid)
 #ifdef USE_WIDE_UPPER_LOWER
    else if (pg_database_encoding_max_length() > 1)
    {
-       pg_locale_t mylocale = 0;
+       pg_locale_t mylocale = 0;
        wchar_t    *workspace;
        size_t      curr_char;
        size_t      result_size;
@@ -1549,7 +1549,7 @@ str_tolower(const char *buff, size_t nbytes, Oid collid)
 #endif   /* USE_WIDE_UPPER_LOWER */
    else
    {
-       pg_locale_t mylocale = 0;
+       pg_locale_t mylocale = 0;
        char       *p;
 
        if (collid != DEFAULT_COLLATION_OID)
@@ -1618,7 +1618,7 @@ str_toupper(const char *buff, size_t nbytes, Oid collid)
 #ifdef USE_WIDE_UPPER_LOWER
    else if (pg_database_encoding_max_length() > 1)
    {
-       pg_locale_t mylocale = 0;
+       pg_locale_t mylocale = 0;
        wchar_t    *workspace;
        size_t      curr_char;
        size_t      result_size;
@@ -1670,7 +1670,7 @@ str_toupper(const char *buff, size_t nbytes, Oid collid)
 #endif   /* USE_WIDE_UPPER_LOWER */
    else
    {
-       pg_locale_t mylocale = 0;
+       pg_locale_t mylocale = 0;
        char       *p;
 
        if (collid != DEFAULT_COLLATION_OID)
@@ -1736,7 +1736,7 @@ str_initcap(const char *buff, size_t nbytes, Oid collid)
 
        for (p = result; *p; p++)
        {
-           char    c;
+           char        c;
 
            if (wasalnum)
                *p = c = pg_ascii_tolower((unsigned char) *p);
@@ -1751,7 +1751,7 @@ str_initcap(const char *buff, size_t nbytes, Oid collid)
 #ifdef USE_WIDE_UPPER_LOWER
    else if (pg_database_encoding_max_length() > 1)
    {
-       pg_locale_t mylocale = 0;
+       pg_locale_t mylocale = 0;
        wchar_t    *workspace;
        size_t      curr_char;
        size_t      result_size;
@@ -1815,7 +1815,7 @@ str_initcap(const char *buff, size_t nbytes, Oid collid)
 #endif   /* USE_WIDE_UPPER_LOWER */
    else
    {
-       pg_locale_t mylocale = 0;
+       pg_locale_t mylocale = 0;
        char       *p;
 
        if (collid != DEFAULT_COLLATION_OID)
@@ -1838,7 +1838,7 @@ str_initcap(const char *buff, size_t nbytes, Oid collid)
 
        /*
         * Note: we assume that toupper_l()/tolower_l() will not be so broken
-        * as to need guard tests.  When using the default collation, we apply
+        * as to need guard tests.  When using the default collation, we apply
         * the traditional Postgres behavior that forces ASCII-style treatment
         * of I/i, but in non-default collations you get exactly what the
         * collation says.
@@ -2318,7 +2318,7 @@ DCH_to_char(FormatNode *node, bool is_interval, TmToChar *in, char *out, Oid col
                 * intervals
                 */
                sprintf(s, "%0*d", S_FM(n->suffix) ? 0 : 2,
-                       tm->tm_hour % (HOURS_PER_DAY / 2) == 0 ? HOURS_PER_DAY / 2 :
+                tm->tm_hour % (HOURS_PER_DAY / 2) == 0 ? HOURS_PER_DAY / 2 :
                        tm->tm_hour % (HOURS_PER_DAY / 2));
                if (S_THth(n->suffix))
                    str_numth(s, s, S_TH_TYPE(n->suffix));
@@ -2423,7 +2423,7 @@ DCH_to_char(FormatNode *node, bool is_interval, TmToChar *in, char *out, Oid col
                    strcpy(s, str_toupper_z(localized_full_months[tm->tm_mon - 1], collid));
                else
                    sprintf(s, "%*s", S_FM(n->suffix) ? 0 : -9,
-                           str_toupper_z(months_full[tm->tm_mon - 1], collid));
+                        str_toupper_z(months_full[tm->tm_mon - 1], collid));
                s += strlen(s);
                break;
            case DCH_Month:
index 7c59e9a20ef3b8b4c28a0bc8d07e66d72655a5b2..6b3f77fec149ba34cd634c217d7303c26550ef13 100644 (file)
@@ -56,18 +56,19 @@ convert_and_check_filename(text *arg)
        /* Disallow '/a/b/data/..' */
        if (path_contains_parent_reference(filename))
            ereport(ERROR,
-               (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-               (errmsg("reference to parent directory (\"..\") not allowed"))));
+                   (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
+           (errmsg("reference to parent directory (\"..\") not allowed"))));
+
        /*
-        *  Allow absolute paths if within DataDir or Log_directory, even
-        *  though Log_directory might be outside DataDir.
+        * Allow absolute paths if within DataDir or Log_directory, even
+        * though Log_directory might be outside DataDir.
         */
        if (!path_is_prefix_of_path(DataDir, filename) &&
            (!is_absolute_path(Log_directory) ||
             !path_is_prefix_of_path(Log_directory, filename)))
            ereport(ERROR,
-               (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-                (errmsg("absolute path not allowed"))));
+                   (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
+                    (errmsg("absolute path not allowed"))));
    }
    else if (!path_is_relative_and_below_cwd(filename))
        ereport(ERROR,
index b060faa6a9b66ac22408dacb1d03c8116b054db4..0934c69ebe5682102a59554b750c865599c8f79b 100644 (file)
 #define LIKE_ABORT                     (-1)
 
 
-static int SB_MatchText(char *t, int tlen, char *p, int plen,
-                        pg_locale_t locale, bool locale_is_c);
+static int SB_MatchText(char *t, int tlen, char *p, int plen,
+            pg_locale_t locale, bool locale_is_c);
 static text *SB_do_like_escape(text *, text *);
 
-static int MB_MatchText(char *t, int tlen, char *p, int plen,
-                        pg_locale_t locale, bool locale_is_c);
+static int MB_MatchText(char *t, int tlen, char *p, int plen,
+            pg_locale_t locale, bool locale_is_c);
 static text *MB_do_like_escape(text *, text *);
 
-static int UTF8_MatchText(char *t, int tlen, char *p, int plen,
-                          pg_locale_t locale, bool locale_is_c);
+static int UTF8_MatchText(char *t, int tlen, char *p, int plen,
+              pg_locale_t locale, bool locale_is_c);
 
-static int SB_IMatchText(char *t, int tlen, char *p, int plen,
-                         pg_locale_t locale, bool locale_is_c);
+static int SB_IMatchText(char *t, int tlen, char *p, int plen,
+             pg_locale_t locale, bool locale_is_c);
 
 static int GenericMatchText(char *s, int slen, char *p, int plen);
 static int Generic_Text_IC_like(text *str, text *pat, Oid collation);
@@ -188,11 +188,11 @@ Generic_Text_IC_like(text *str, text *pat, Oid collation)
    else
    {
        /*
-        * Here we need to prepare locale information for SB_lower_char.
-        * This should match the methods used in str_tolower().
+        * Here we need to prepare locale information for SB_lower_char. This
+        * should match the methods used in str_tolower().
         */
-       pg_locale_t locale = 0;
-       bool    locale_is_c = false;
+       pg_locale_t locale = 0;
+       bool        locale_is_c = false;
 
        if (lc_ctype_is_c(collation))
            locale_is_c = true;
index 4b61b21cbed8d5ff3bca10573dea7bd54431849d..6771e78af8eb999f4d3badc15fbe29a7040b2107 100644 (file)
@@ -182,8 +182,8 @@ tm2abstime(struct pg_tm * tm, int tz)
        tm->tm_mon < 1 || tm->tm_mon > MONTHS_PER_YEAR ||
        tm->tm_mday < 1 || tm->tm_mday > 31 ||
        tm->tm_hour < 0 ||
-       tm->tm_hour > HOURS_PER_DAY ||      /* test for > 24:00:00 */
-       (tm->tm_hour == HOURS_PER_DAY && (tm->tm_min > 0 || tm->tm_sec > 0)) ||
+       tm->tm_hour > HOURS_PER_DAY ||  /* test for > 24:00:00 */
+     (tm->tm_hour == HOURS_PER_DAY && (tm->tm_min > 0 || tm->tm_sec > 0)) ||
        tm->tm_min < 0 || tm->tm_min > MINS_PER_HOUR - 1 ||
        tm->tm_sec < 0 || tm->tm_sec > SECS_PER_MINUTE)
        return INVALID_ABSTIME;
@@ -1163,7 +1163,7 @@ tintervalsame(PG_FUNCTION_ARGS)
  * 1. The interval length computations overflow at 2^31 seconds, causing
  * intervals longer than that to sort oddly compared to those shorter.
  * 2. infinity and minus infinity (NOEND_ABSTIME and NOSTART_ABSTIME) are
- * just ordinary integers.  Since this code doesn't handle them specially,
+ * just ordinary integers. Since this code doesn't handle them specially,
  * it's possible for [a b] to be considered longer than [c infinity] for
  * finite abstimes a, b, c.  In combination with the previous point, the
  * interval [-infinity infinity] is treated as being shorter than many finite
index 8cac11134c4bd0f73b1af7d0c8edabcb766bdee5..80e5915b3e54b2731403f262d160476f171621d1 100644 (file)
@@ -319,7 +319,7 @@ inet_to_cidr(PG_FUNCTION_ARGS)
    inet       *src = PG_GETARG_INET_P(0);
    inet       *dst;
    int         bits;
-   int byte;
+   int         byte;
    int         nbits;
    int         maxbytes;
 
@@ -340,15 +340,15 @@ inet_to_cidr(PG_FUNCTION_ARGS)
    /* clear the first byte, this might be a partial byte */
    if (nbits != 0)
    {
-       ip_addr(dst)[byte] &=~(0xFF >> nbits);
-       byte      ++;
+       ip_addr(dst)[byte] &= ~(0xFF >> nbits);
+       byte++;
    }
    /* clear remaining bytes */
    maxbytes = ip_addrsize(dst);
-   while (byte <maxbytes)
+   while (byte < maxbytes)
    {
        ip_addr(dst)[byte] = 0;
-       byte      ++;
+       byte++;
    }
 
    PG_RETURN_INET_P(dst);
@@ -384,7 +384,7 @@ cidr_set_masklen(PG_FUNCTION_ARGS)
    inet       *src = PG_GETARG_INET_P(0);
    int         bits = PG_GETARG_INT32(1);
    inet       *dst;
-   int byte;
+   int         byte;
    int         nbits;
    int         maxbytes;
 
@@ -409,15 +409,15 @@ cidr_set_masklen(PG_FUNCTION_ARGS)
    /* clear the first byte, this might be a partial byte */
    if (nbits != 0)
    {
-       ip_addr(dst)[byte] &=~(0xFF >> nbits);
-       byte      ++;
+       ip_addr(dst)[byte] &= ~(0xFF >> nbits);
+       byte++;
    }
    /* clear remaining bytes */
    maxbytes = ip_addrsize(dst);
-   while (byte <maxbytes)
+   while (byte < maxbytes)
    {
        ip_addr(dst)[byte] = 0;
-       byte      ++;
+       byte++;
    }
 
    PG_RETURN_INET_P(dst);
@@ -716,7 +716,7 @@ network_broadcast(PG_FUNCTION_ARGS)
 {
    inet       *ip = PG_GETARG_INET_P(0);
    inet       *dst;
-   int byte;
+   int         byte;
    int         bits;
    int         maxbytes;
    unsigned char mask;
@@ -735,7 +735,7 @@ network_broadcast(PG_FUNCTION_ARGS)
    a = ip_addr(ip);
    b = ip_addr(dst);
 
-   for (byte = 0; byte <maxbytes; byte ++)
+   for (byte = 0; byte < maxbytes; byte++)
    {
        if (bits >= 8)
        {
@@ -750,7 +750,7 @@ network_broadcast(PG_FUNCTION_ARGS)
            bits = 0;
        }
 
-       b[byte] = a[byte] |mask;
+       b[byte] = a[byte] | mask;
    }
 
    ip_family(dst) = ip_family(ip);
@@ -765,7 +765,7 @@ network_network(PG_FUNCTION_ARGS)
 {
    inet       *ip = PG_GETARG_INET_P(0);
    inet       *dst;
-   int byte;
+   int         byte;
    int         bits;
    unsigned char mask;
    unsigned char *a,
@@ -793,8 +793,8 @@ network_network(PG_FUNCTION_ARGS)
            bits = 0;
        }
 
-       b[byte] = a[byte] &mask;
-       byte      ++;
+       b[byte] = a[byte] & mask;
+       byte++;
    }
 
    ip_family(dst) = ip_family(ip);
@@ -809,7 +809,7 @@ network_netmask(PG_FUNCTION_ARGS)
 {
    inet       *ip = PG_GETARG_INET_P(0);
    inet       *dst;
-   int byte;
+   int         byte;
    int         bits;
    unsigned char mask;
    unsigned char *b;
@@ -836,7 +836,7 @@ network_netmask(PG_FUNCTION_ARGS)
        }
 
        b[byte] = mask;
-       byte      ++;
+       byte++;
    }
 
    ip_family(dst) = ip_family(ip);
@@ -851,7 +851,7 @@ network_hostmask(PG_FUNCTION_ARGS)
 {
    inet       *ip = PG_GETARG_INET_P(0);
    inet       *dst;
-   int byte;
+   int         byte;
    int         bits;
    int         maxbytes;
    unsigned char mask;
@@ -884,7 +884,7 @@ network_hostmask(PG_FUNCTION_ARGS)
        }
 
        b[byte] = mask;
-       byte      --;
+       byte--;
    }
 
    ip_family(dst) = ip_family(ip);
@@ -994,7 +994,7 @@ bitncmp(void *l, void *r, int n)
 static bool
 addressOK(unsigned char *a, int bits, int family)
 {
-   int byte;
+   int         byte;
    int         nbits;
    int         maxbits;
    int         maxbytes;
@@ -1022,12 +1022,12 @@ addressOK(unsigned char *a, int bits, int family)
    if (bits != 0)
        mask >>= nbits;
 
-   while (byte <maxbytes)
+   while (byte < maxbytes)
    {
-       if ((a[byte] &mask) != 0)
+       if ((a[byte] & mask) != 0)
            return false;
        mask = 0xff;
-       byte      ++;
+       byte++;
    }
 
    return true;
@@ -1396,7 +1396,7 @@ inetmi(PG_FUNCTION_ARGS)
         * two's complement, too bad.
         */
        int         nb = ip_addrsize(ip);
-       int byte = 0;
+       int         byte = 0;
        unsigned char *pip = ip_addr(ip);
        unsigned char *pip2 = ip_addr(ip2);
        int         carry = 1;
@@ -1407,9 +1407,9 @@ inetmi(PG_FUNCTION_ARGS)
 
            carry = pip[nb] + (~pip2[nb] & 0xFF) + carry;
            lobyte = carry & 0xFF;
-           if (byte <sizeof(int64))
+           if (byte < sizeof(int64))
            {
-               res |= ((int64) lobyte) << (byte *8);
+               res |= ((int64) lobyte) << (byte * 8);
            }
            else
            {
@@ -1424,15 +1424,15 @@ inetmi(PG_FUNCTION_ARGS)
                             errmsg("result is out of range")));
            }
            carry >>= 8;
-           byte      ++;
+           byte++;
        }
 
        /*
         * If input is narrower than int64, overflow is not possible, but we
         * have to do proper sign extension.
         */
-       if (carry == 0 && byte <sizeof(int64))
-           res |= ((int64) -1) << (byte *8);
+       if (carry == 0 && byte < sizeof(int64))
+           res |= ((int64) -1) << (byte * 8);
    }
 
    PG_RETURN_INT64(res);
index eec89aa54f2b24155070d9adc3f71dc6b4364399..6b60a5c1c7870f67053533cdfc6a7d04c28a187a 100644 (file)
@@ -94,11 +94,11 @@ typedef int16 NumericDigit;
  * If the high bits of the first word of a NumericChoice (n_header, or
  * n_short.n_header, or n_long.n_sign_dscale) are NUMERIC_SHORT, then the
  * numeric follows the NumericShort format; if they are NUMERIC_POS or
- * NUMERIC_NEG, it follows the NumericLong format.  If they are NUMERIC_NAN,
+ * NUMERIC_NEG, it follows the NumericLong format. If they are NUMERIC_NAN,
  * it is a NaN.  We currently always store a NaN using just two bytes (i.e.
  * only n_header), but previous releases used only the NumericLong format,
  * so we might find 4-byte NaNs on disk if a database has been migrated using
- * pg_upgrade.  In either case, when the high bits indicate a NaN, the
+ * pg_upgrade. In either case, when the high bits indicate a NaN, the
  * remaining bits are never examined.  Currently, we always initialize these
  * to zero, but it might be possible to use them for some other purpose in
  * the future.
@@ -134,14 +134,14 @@ struct NumericLong
 union NumericChoice
 {
    uint16      n_header;       /* Header word */
-   struct NumericLong  n_long; /* Long form (4-byte header) */
-   struct NumericShort n_short;    /* Short form (2-byte header) */
+   struct NumericLong n_long;  /* Long form (4-byte header) */
+   struct NumericShort n_short;    /* Short form (2-byte header) */
 };
 
 struct NumericData
 {
    int32       vl_len_;        /* varlena header (do not touch directly!) */
-   union NumericChoice choice; /* choice of format */
+   union NumericChoice choice; /* choice of format */
 };
 
 
@@ -160,7 +160,7 @@ struct NumericData
 #define NUMERIC_IS_SHORT(n)        (NUMERIC_FLAGBITS(n) == NUMERIC_SHORT)
 
 #define NUMERIC_HDRSZ  (VARHDRSZ + sizeof(uint16) + sizeof(int16))
-#define NUMERIC_HDRSZ_SHORT    (VARHDRSZ + sizeof(uint16))
+#define NUMERIC_HDRSZ_SHORT (VARHDRSZ + sizeof(uint16))
 
 /*
  * If the flag bits are NUMERIC_SHORT or NUMERIC_NAN, we want the short header;
@@ -189,7 +189,7 @@ struct NumericData
  * Extract sign, display scale, weight.
  */
 
-#define NUMERIC_DSCALE_MASK        0x3FFF
+#define NUMERIC_DSCALE_MASK            0x3FFF
 
 #define NUMERIC_SIGN(n) \
    (NUMERIC_IS_SHORT(n) ? \
@@ -551,7 +551,7 @@ numeric_out(PG_FUNCTION_ARGS)
 /*
  * numeric_is_nan() -
  *
- *  Is Numeric value a NaN?
+ * Is Numeric value a NaN?
  */
 bool
 numeric_is_nan(Numeric num)
@@ -562,13 +562,13 @@ numeric_is_nan(Numeric num)
 /*
  * numeric_maximum_size() -
  *
- *  Maximum size of a numeric with given typmod, or -1 if unlimited/unknown.
+ * Maximum size of a numeric with given typmod, or -1 if unlimited/unknown.
  */
 int32
 numeric_maximum_size(int32 typmod)
 {
-   int precision;
-   int numeric_digits;
+   int         precision;
+   int         numeric_digits;
 
    if (typmod < (int32) (VARHDRSZ))
        return -1;
@@ -577,23 +577,23 @@ numeric_maximum_size(int32 typmod)
    precision = ((typmod - VARHDRSZ) >> 16) & 0xffff;
 
    /*
-    * This formula computes the maximum number of NumericDigits we could
-    * need in order to store the specified number of decimal digits.
-    * Because the weight is stored as a number of NumericDigits rather
-    * than a number of decimal digits, it's possible that the first
-    * NumericDigit will contain only a single decimal digit.  Thus, the
-    * first two decimal digits can require two NumericDigits to store,
-    * but it isn't until we reach DEC_DIGITS + 2 decimal digits that we
-    * potentially need a third NumericDigit.
+    * This formula computes the maximum number of NumericDigits we could need
+    * in order to store the specified number of decimal digits. Because the
+    * weight is stored as a number of NumericDigits rather than a number of
+    * decimal digits, it's possible that the first NumericDigit will contain
+    * only a single decimal digit.  Thus, the first two decimal digits can
+    * require two NumericDigits to store, but it isn't until we reach
+    * DEC_DIGITS + 2 decimal digits that we potentially need a third
+    * NumericDigit.
     */
    numeric_digits = (precision + 2 * (DEC_DIGITS - 1)) / DEC_DIGITS;
 
    /*
     * In most cases, the size of a numeric will be smaller than the value
     * computed below, because the varlena header will typically get toasted
-    * down to a single byte before being stored on disk, and it may also
-    * be possible to use a short numeric header.  But our job here is to
-    * compute the worst case.
+    * down to a single byte before being stored on disk, and it may also be
+    * possible to use a short numeric header.  But our job here is to compute
+    * the worst case.
     */
    return NUMERIC_HDRSZ + (numeric_digits * sizeof(NumericDigit));
 }
@@ -761,12 +761,13 @@ numeric       (PG_FUNCTION_ARGS)
     * If the number is certainly in bounds and due to the target scale no
     * rounding could be necessary, just make a copy of the input and modify
     * its scale fields, unless the larger scale forces us to abandon the
-    * short representation.  (Note we assume the existing dscale is honest...)
+    * short representation.  (Note we assume the existing dscale is
+    * honest...)
     */
    ddigits = (NUMERIC_WEIGHT(num) + 1) * DEC_DIGITS;
    if (ddigits <= maxdigits && scale >= NUMERIC_DSCALE(num)
        && (NUMERIC_CAN_BE_SHORT(scale, NUMERIC_WEIGHT(num))
-       || !NUMERIC_IS_SHORT(num)))
+           || !NUMERIC_IS_SHORT(num)))
    {
        new = (Numeric) palloc(VARSIZE(num));
        memcpy(new, num, VARSIZE(num));
@@ -1427,7 +1428,7 @@ hash_numeric(PG_FUNCTION_ARGS)
    int         end_offset;
    int         i;
    int         hash_len;
-   NumericDigit   *digits;
+   NumericDigit *digits;
 
    /* If it's NaN, don't try to hash the rest of the fields */
    if (NUMERIC_IS_NAN(key))
@@ -3727,7 +3728,7 @@ make_result(NumericVar *var)
        SET_VARSIZE(result, len);
        result->choice.n_short.n_header =
            (sign == NUMERIC_NEG ? (NUMERIC_SHORT | NUMERIC_SHORT_SIGN_MASK)
-               : NUMERIC_SHORT)
+            : NUMERIC_SHORT)
            | (var->dscale << NUMERIC_SHORT_DSCALE_SHIFT)
            | (weight < 0 ? NUMERIC_SHORT_WEIGHT_SIGN_MASK : 0)
            | (weight & NUMERIC_SHORT_WEIGHT_MASK);
index 38ce38821e17966c6174b60ce6993a91f4029b89..37d208994c1547c8a852b4fec52296d1ae228d82 100644 (file)
@@ -136,7 +136,7 @@ pg_ltoa(int32 value, char *a)
     * Avoid problems with the most negative integer not being representable
     * as a positive integer.
     */
-   if (value == (-2147483647-1))
+   if (value == (-2147483647 - 1))
    {
        memcpy(a, "-2147483648", 12);
        return;
@@ -150,8 +150,8 @@ pg_ltoa(int32 value, char *a)
    /* Compute the result string backwards. */
    do
    {
-       int32   remainder;
-       int32   oldval = value;
+       int32       remainder;
+       int32       oldval = value;
 
        value /= 10;
        remainder = oldval - value * 10;
@@ -167,7 +167,7 @@ pg_ltoa(int32 value, char *a)
    /* Reverse string. */
    while (start < a)
    {
-       char    swap = *start;
+       char        swap = *start;
 
        *start++ = *a;
        *a-- = swap;
@@ -190,7 +190,7 @@ pg_lltoa(int64 value, char *a)
     * Avoid problems with the most negative integer not being representable
     * as a positive integer.
     */
-   if (value == (-INT64CONST(0x7FFFFFFFFFFFFFFF)-1))
+   if (value == (-INT64CONST(0x7FFFFFFFFFFFFFFF) - 1))
    {
        memcpy(a, "-9223372036854775808", 21);
        return;
@@ -204,8 +204,8 @@ pg_lltoa(int64 value, char *a)
    /* Compute the result string backwards. */
    do
    {
-       int64   remainder;
-       int64   oldval = value;
+       int64       remainder;
+       int64       oldval = value;
 
        value /= 10;
        remainder = oldval - value * 10;
@@ -221,7 +221,7 @@ pg_lltoa(int64 value, char *a)
    /* Reverse string. */
    while (start < a)
    {
-       char    swap = *start;
+       char        swap = *start;
 
        *start++ = *a;
        *a-- = swap;
index 09ff926cba61342b2e52aa399ad13739f6c800f0..0e6723d4690cb4a0b2504499dc358067e064a3c2 100644 (file)
@@ -107,7 +107,7 @@ typedef struct
    bool        collate_is_c;   /* is collation's LC_COLLATE C? */
    bool        ctype_is_c;     /* is collation's LC_CTYPE C? */
    bool        flags_valid;    /* true if above flags are valid */
-   pg_locale_t locale;         /* locale_t struct, or 0 if not valid */
+   pg_locale_t locale;         /* locale_t struct, or 0 if not valid */
 } collation_cache_entry;
 
 static HTAB *collation_cache = NULL;
@@ -242,7 +242,7 @@ check_locale(int category, const char *value)
  *
  * For most locale categories, the assign hook doesn't actually set the locale
  * permanently, just reset flags so that the next use will cache the
- * appropriate values.  (See explanation at the top of this file.)
+ * appropriate values. (See explanation at the top of this file.)
  *
  * Note: we accept value = "" as selecting the postmaster's environment
  * value, whatever it was (so long as the environment setting is legal).
@@ -728,7 +728,6 @@ IsoLocaleName(const char *winlocname)
    return NULL;                /* Not supported on this version of msvc/mingw */
 #endif   /* _MSC_VER >= 1400 */
 }
-
 #endif   /* WIN32 && LC_MESSAGES */
 
 
@@ -750,7 +749,7 @@ IsoLocaleName(const char *winlocname)
  * could fail if the locale is C, so str_tolower() shouldn't call it
  * in that case.
  *
- * Note that we currently lack any way to flush the cache.  Since we don't
+ * Note that we currently lack any way to flush the cache. Since we don't
  * support ALTER COLLATION, this is OK.  The worst case is that someone
  * drops a collation, and a useless cache entry hangs around in existing
  * backends.
@@ -826,15 +825,15 @@ bool
 lc_collate_is_c(Oid collation)
 {
    /*
-    * If we're asked about "collation 0", return false, so that the code
-    * will go into the non-C path and report that the collation is bogus.
+    * If we're asked about "collation 0", return false, so that the code will
+    * go into the non-C path and report that the collation is bogus.
     */
    if (!OidIsValid(collation))
        return false;
 
    /*
-    * If we're asked about the default collation, we have to inquire of
-    * the C library.  Cache the result so we only have to compute it once.
+    * If we're asked about the default collation, we have to inquire of the C
+    * library.  Cache the result so we only have to compute it once.
     */
    if (collation == DEFAULT_COLLATION_OID)
    {
@@ -876,15 +875,15 @@ bool
 lc_ctype_is_c(Oid collation)
 {
    /*
-    * If we're asked about "collation 0", return false, so that the code
-    * will go into the non-C path and report that the collation is bogus.
+    * If we're asked about "collation 0", return false, so that the code will
+    * go into the non-C path and report that the collation is bogus.
     */
    if (!OidIsValid(collation))
        return false;
 
    /*
-    * If we're asked about the default collation, we have to inquire of
-    * the C library.  Cache the result so we only have to compute it once.
+    * If we're asked about the default collation, we have to inquire of the C
+    * library.  Cache the result so we only have to compute it once.
     */
    if (collation == DEFAULT_COLLATION_OID)
    {
@@ -921,7 +920,7 @@ lc_ctype_is_c(Oid collation)
 
 
 /*
- * Create a locale_t from a collation OID.  Results are cached for the
+ * Create a locale_t from a collation OID. Results are cached for the
  * lifetime of the backend.  Thus, do not free the result with freelocale().
  *
  * As a special optimization, the default/database collation returns 0.
@@ -987,7 +986,7 @@ pg_newlocale_from_collation(Oid collid)
        {
 #ifndef WIN32
            /* We need two newlocale() steps */
-           locale_t loc1;
+           locale_t    loc1;
 
            loc1 = newlocale(LC_COLLATE_MASK, collcollate, NULL);
            if (!loc1)
@@ -1002,10 +1001,11 @@ pg_newlocale_from_collation(Oid collid)
                         errmsg("could not create locale \"%s\": %m",
                                collctype)));
 #else
+
            /*
-            * XXX The _create_locale() API doesn't appear to support
-            * this.  Could perhaps be worked around by changing
-            * pg_locale_t to contain two separate fields.
+            * XXX The _create_locale() API doesn't appear to support this.
+            * Could perhaps be worked around by changing pg_locale_t to
+            * contain two separate fields.
             */
            ereport(ERROR,
                    (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
@@ -1016,8 +1016,7 @@ pg_newlocale_from_collation(Oid collid)
        cache_entry->locale = result;
 
        ReleaseSysCache(tp);
-
-#else /* not HAVE_LOCALE_T */
+#else                          /* not HAVE_LOCALE_T */
 
        /*
         * For platforms that don't support locale_t, we can't do anything
@@ -1025,8 +1024,8 @@ pg_newlocale_from_collation(Oid collid)
         */
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("nondefault collations are not supported on this platform")));
-#endif /* not HAVE_LOCALE_T */
+       errmsg("nondefault collations are not supported on this platform")));
+#endif   /* not HAVE_LOCALE_T */
    }
 
    return cache_entry->locale;
index 137c811bc3a7baeaab5582d4fa83d63dffda451c..f811245cea08bf99a1a5d4106998e46d9d3a11e3 100644 (file)
@@ -364,7 +364,7 @@ pg_stat_get_vacuum_count(PG_FUNCTION_ARGS)
 {
    Oid         relid = PG_GETARG_OID(0);
    int64       result;
-   PgStat_StatTabEntry *tabentry;
+   PgStat_StatTabEntry *tabentry;
 
    if ((tabentry = pgstat_fetch_stat_tabentry(relid)) == NULL)
        result = 0;
@@ -379,7 +379,7 @@ pg_stat_get_autovacuum_count(PG_FUNCTION_ARGS)
 {
    Oid         relid = PG_GETARG_OID(0);
    int64       result;
-   PgStat_StatTabEntry *tabentry;
+   PgStat_StatTabEntry *tabentry;
 
    if ((tabentry = pgstat_fetch_stat_tabentry(relid)) == NULL)
        result = 0;
@@ -394,7 +394,7 @@ pg_stat_get_analyze_count(PG_FUNCTION_ARGS)
 {
    Oid         relid = PG_GETARG_OID(0);
    int64       result;
-   PgStat_StatTabEntry *tabentry;
+   PgStat_StatTabEntry *tabentry;
 
    if ((tabentry = pgstat_fetch_stat_tabentry(relid)) == NULL)
        result = 0;
@@ -409,7 +409,7 @@ pg_stat_get_autoanalyze_count(PG_FUNCTION_ARGS)
 {
    Oid         relid = PG_GETARG_OID(0);
    int64       result;
-   PgStat_StatTabEntry *tabentry;
+   PgStat_StatTabEntry *tabentry;
 
    if ((tabentry = pgstat_fetch_stat_tabentry(relid)) == NULL)
        result = 0;
@@ -1263,11 +1263,11 @@ pg_stat_get_db_conflict_all(PG_FUNCTION_ARGS)
        result = 0;
    else
        result = (int64) (
-           dbentry->n_conflict_tablespace +
-           dbentry->n_conflict_lock +
-           dbentry->n_conflict_snapshot +
-           dbentry->n_conflict_bufferpin +
-           dbentry->n_conflict_startup_deadlock);
+                         dbentry->n_conflict_tablespace +
+                         dbentry->n_conflict_lock +
+                         dbentry->n_conflict_snapshot +
+                         dbentry->n_conflict_bufferpin +
+                         dbentry->n_conflict_startup_deadlock);
 
    PG_RETURN_INT64(result);
 }
index 591d2eb16b00e643107f53a75ae6157df4cc6f83..84797191efa2d6af621feb3914cfaebc6b871af2 100644 (file)
@@ -2608,7 +2608,7 @@ RI_FKey_keyequal_upd_fk(Trigger *trigger, Relation fk_rel,
  * This is not a trigger procedure, but is called during ALTER TABLE
  * ADD FOREIGN KEY to validate the initial table contents.
  *
- *     We expect that the caller has made provision to prevent any problems
+ * We expect that the caller has made provision to prevent any problems
  * caused by concurrent actions. This could be either by locking rel and
  * pkrel at ShareRowExclusiveLock or higher, or by otherwise ensuring
  * that triggers implementing the checks are already active.
@@ -2629,8 +2629,8 @@ RI_Initial_Check(Trigger *trigger, Relation fk_rel, Relation pk_rel)
    char        fkrelname[MAX_QUOTED_REL_NAME_LEN];
    char        pkattname[MAX_QUOTED_NAME_LEN + 3];
    char        fkattname[MAX_QUOTED_NAME_LEN + 3];
-   RangeTblEntry  *pkrte;
-   RangeTblEntry  *fkrte;
+   RangeTblEntry *pkrte;
+   RangeTblEntry *fkrte;
    const char *sep;
    int         i;
    int         old_work_mem;
@@ -2662,7 +2662,7 @@ RI_Initial_Check(Trigger *trigger, Relation fk_rel, Relation pk_rel)
 
    for (i = 0; i < riinfo.nkeys; i++)
    {
-       int     attno;
+       int         attno;
 
        attno = riinfo.pk_attnums[i] - FirstLowInvalidHeapAttributeNumber;
        pkrte->selectedCols = bms_add_member(pkrte->selectedCols, attno);
@@ -2789,10 +2789,10 @@ RI_Initial_Check(Trigger *trigger, Relation fk_rel, Relation pk_rel)
 
    /*
     * Run the plan.  For safety we force a current snapshot to be used. (In
-    * transaction-snapshot mode, this arguably violates transaction
-    * isolation rules, but we really haven't got much choice.)
-    * We don't need to register the snapshot, because SPI_execute_snapshot
-    * will see to it. We need at most one tuple returned, so pass limit = 1.
+    * transaction-snapshot mode, this arguably violates transaction isolation
+    * rules, but we really haven't got much choice.) We don't need to
+    * register the snapshot, because SPI_execute_snapshot will see to it. We
+    * need at most one tuple returned, so pass limit = 1.
     */
    spi_result = SPI_execute_snapshot(qplan,
                                      NULL, NULL,
@@ -3337,8 +3337,8 @@ ri_PerformCheck(RI_QueryKey *qkey, SPIPlanPtr qplan,
    /*
     * In READ COMMITTED mode, we just need to use an up-to-date regular
     * snapshot, and we will see all rows that could be interesting. But in
-    * transaction-snapshot mode, we can't change the transaction snapshot.
-    * If the caller passes detectNewRows == false then it's okay to do the query
+    * transaction-snapshot mode, we can't change the transaction snapshot. If
+    * the caller passes detectNewRows == false then it's okay to do the query
     * with the transaction snapshot; otherwise we use a current snapshot, and
     * tell the executor to error out if it finds any rows under the current
     * snapshot that wouldn't be visible per the transaction snapshot.  Note
index 326079a75ba500da3ea795ca6d0774fc6f2a57f9..e436a1ee59ff63d9718ec9dfa4905112b5aa90b3 100644 (file)
@@ -169,11 +169,11 @@ static void set_deparse_planstate(deparse_namespace *dpns, PlanState *ps);
 static void push_child_plan(deparse_namespace *dpns, PlanState *ps,
                deparse_namespace *save_dpns);
 static void pop_child_plan(deparse_namespace *dpns,
-                          deparse_namespace *save_dpns);
+              deparse_namespace *save_dpns);
 static void push_ancestor_plan(deparse_namespace *dpns, ListCell *ancestor_cell,
                   deparse_namespace *save_dpns);
 static void pop_ancestor_plan(deparse_namespace *dpns,
-                             deparse_namespace *save_dpns);
+                 deparse_namespace *save_dpns);
 static void make_ruledef(StringInfo buf, HeapTuple ruletup, TupleDesc rulettc,
             int prettyFlags);
 static void make_viewdef(StringInfo buf, HeapTuple ruletup, TupleDesc rulettc,
@@ -948,7 +948,7 @@ pg_get_indexdef_worker(Oid indexrelid, int colno,
 
        if (!attrsOnly && (!colno || colno == keyno + 1))
        {
-           Oid     indcoll;
+           Oid         indcoll;
 
            /* Add collation, if not default for column */
            indcoll = indcollation->values[keyno];
@@ -2207,7 +2207,7 @@ set_deparse_planstate(deparse_namespace *dpns, PlanState *ps)
     * We special-case Append and MergeAppend to pretend that the first child
     * plan is the OUTER referent; we have to interpret OUTER Vars in their
     * tlists according to one of the children, and the first one is the most
-    * natural choice.  Likewise special-case ModifyTable to pretend that the
+    * natural choice.  Likewise special-case ModifyTable to pretend that the
     * first child plan is the OUTER referent; this is to support RETURNING
     * lists containing references to non-target relations.
     */
@@ -2263,8 +2263,8 @@ push_child_plan(deparse_namespace *dpns, PlanState *ps,
 
    /*
     * Currently we don't bother to adjust the ancestors list, because an
-    * OUTER or INNER reference really shouldn't contain any Params that
-    * would be set by the parent node itself.  If we did want to adjust it,
+    * OUTER or INNER reference really shouldn't contain any Params that would
+    * be set by the parent node itself.  If we did want to adjust it,
     * lcons'ing dpns->planstate onto dpns->ancestors would be the appropriate
     * thing --- and pop_child_plan would need to undo the change to the list.
     */
@@ -3780,8 +3780,8 @@ get_variable(Var *var, int levelsup, bool showstar, deparse_context *context)
     * subquery's alias, that's not possible for resjunk items since they have
     * no alias.  So in that case, drill down to the subplan and print the
     * contents of the referenced tlist item.  This works because in a plan
-    * tree, such Vars can only occur in a SubqueryScan or CteScan node,
-    * and we'll have set dpns->inner_plan to reference the child plan node.
+    * tree, such Vars can only occur in a SubqueryScan or CteScan node, and
+    * we'll have set dpns->inner_plan to reference the child plan node.
     */
    if ((rte->rtekind == RTE_SUBQUERY || rte->rtekind == RTE_CTE) &&
        attnum > list_length(rte->eref->colnames) &&
@@ -4145,7 +4145,7 @@ get_name_for_var_field(Var *var, int fieldno,
                if (lc != NULL)
                {
                    Query      *ctequery = (Query *) cte->ctequery;
-                   TargetEntry *ste = get_tle_by_resno(GetCTETargetList(cte),
+                   TargetEntry *ste = get_tle_by_resno(GetCTETargetList(cte),
                                                        attnum);
 
                    if (ste == NULL || ste->resjunk)
@@ -4279,11 +4279,11 @@ static void
 get_parameter(Param *param, deparse_context *context)
 {
    /*
-    * If it's a PARAM_EXEC parameter, try to locate the expression from
-    * which the parameter was computed.  This will necessarily be in some
-    * ancestor of the current expression's PlanState.  Note that failing
-    * to find a referent isn't an error, since the Param might well be a
-    * subplan output rather than an input.
+    * If it's a PARAM_EXEC parameter, try to locate the expression from which
+    * the parameter was computed.  This will necessarily be in some ancestor
+    * of the current expression's PlanState.  Note that failing to find a
+    * referent isn't an error, since the Param might well be a subplan output
+    * rather than an input.
     */
    if (param->paramkind == PARAM_EXEC)
    {
@@ -4302,9 +4302,9 @@ get_parameter(Param *param, deparse_context *context)
            ListCell   *lc2;
 
            /*
-            * NestLoops transmit params to their inner child only; also,
-            * once we've crawled up out of a subplan, this couldn't
-            * possibly be the right match.
+            * NestLoops transmit params to their inner child only; also, once
+            * we've crawled up out of a subplan, this couldn't possibly be
+            * the right match.
             */
            if (IsA(ps, NestLoopState) &&
                child_ps == innerPlanState(ps) &&
@@ -4314,7 +4314,7 @@ get_parameter(Param *param, deparse_context *context)
 
                foreach(lc2, nl->nestParams)
                {
-                   NestLoopParam  *nlp = (NestLoopParam *) lfirst(lc2);
+                   NestLoopParam *nlp = (NestLoopParam *) lfirst(lc2);
 
                    if (nlp->paramno == param->paramid)
                    {
@@ -4342,8 +4342,8 @@ get_parameter(Param *param, deparse_context *context)
                /* Matched subplan, so check its arguments */
                forboth(lc3, subplan->parParam, lc4, subplan->args)
                {
-                   int     paramid = lfirst_int(lc3);
-                   Node   *arg = (Node *) lfirst(lc4);
+                   int         paramid = lfirst_int(lc3);
+                   Node       *arg = (Node *) lfirst(lc4);
 
                    if (paramid == param->paramid)
                    {
@@ -4898,7 +4898,7 @@ get_rule_expr(Node *node, deparse_context *context,
                appendStringInfo(buf, " %s %s (",
                                 generate_operator_name(expr->opno,
                                                        exprType(arg1),
-                                      get_base_element_type(exprType(arg2))),
+                                     get_base_element_type(exprType(arg2))),
                                 expr->useOr ? "ANY" : "ALL");
                get_rule_expr_paren(arg2, context, true, node);
                appendStringInfoChar(buf, ')');
@@ -6126,7 +6126,7 @@ get_const_collation(Const *constval, deparse_context *context)
 
    if (OidIsValid(constval->constcollid))
    {
-       Oid     typcollation = get_typcollation(constval->consttype);
+       Oid         typcollation = get_typcollation(constval->consttype);
 
        if (constval->constcollid != typcollation)
        {
@@ -6384,7 +6384,7 @@ get_from_clause_item(Node *jtnode, Query *query, deparse_context *context)
            gavealias = true;
        }
        else if (rte->rtekind == RTE_RELATION &&
-                strcmp(rte->eref->aliasname, get_relation_name(rte->relid)) != 0)
+           strcmp(rte->eref->aliasname, get_relation_name(rte->relid)) != 0)
        {
            /*
             * Apparently the rel has been renamed since the rule was made.
index 092dc15a02b0520ef733e3f637f66af5e9694e87..41c5202146d4e41bf1870fdbabab6e1b9a2844a4 100644 (file)
@@ -6329,28 +6329,28 @@ gincostestimate(PG_FUNCTION_ARGS)
    Cost       *indexTotalCost = (Cost *) PG_GETARG_POINTER(6);
    Selectivity *indexSelectivity = (Selectivity *) PG_GETARG_POINTER(7);
    double     *indexCorrelation = (double *) PG_GETARG_POINTER(8);
-   ListCell       *l;
-   List           *selectivityQuals;
-   double         numPages = index->pages,
-                  numTuples = index->tuples;
-   double         numEntryPages,
-                  numDataPages,
-                  numPendingPages,
-                  numEntries;
-   bool           haveFullScan = false;
-   double         partialEntriesInQuals = 0.0;
-   double         searchEntriesInQuals = 0.0;
-   double         exactEntriesInQuals = 0.0;
-   double         entryPagesFetched,
-                  dataPagesFetched,
-                  dataPagesFetchedBySel;
-   double         qual_op_cost,
-                  qual_arg_cost,
-                  spc_random_page_cost,
-                  num_scans;
-   QualCost       index_qual_cost;
-   Relation       indexRel;
-   GinStatsData   ginStats;
+   ListCell   *l;
+   List       *selectivityQuals;
+   double      numPages = index->pages,
+               numTuples = index->tuples;
+   double      numEntryPages,
+               numDataPages,
+               numPendingPages,
+               numEntries;
+   bool        haveFullScan = false;
+   double      partialEntriesInQuals = 0.0;
+   double      searchEntriesInQuals = 0.0;
+   double      exactEntriesInQuals = 0.0;
+   double      entryPagesFetched,
+               dataPagesFetched,
+               dataPagesFetchedBySel;
+   double      qual_op_cost,
+               qual_arg_cost,
+               spc_random_page_cost,
+               num_scans;
+   QualCost    index_qual_cost;
+   Relation    indexRel;
+   GinStatsData ginStats;
 
    /*
     * Obtain statistic information from the meta page
@@ -6366,7 +6366,7 @@ gincostestimate(PG_FUNCTION_ARGS)
 
    /*
     * nPendingPages can be trusted, but the other fields are as of the last
-    * VACUUM.  Scale them by the ratio numPages / nTotalPages to account for
+    * VACUUM.  Scale them by the ratio numPages / nTotalPages to account for
     * growth since then.  If the fields are zero (implying no VACUUM at all,
     * and an index created pre-9.1), assume all pages are entry pages.
     */
@@ -6374,11 +6374,11 @@ gincostestimate(PG_FUNCTION_ARGS)
    {
        numEntryPages = numPages;
        numDataPages = 0;
-       numEntries = numTuples;     /* bogus, but no other info available */
+       numEntries = numTuples; /* bogus, but no other info available */
    }
    else
    {
-       double  scale = numPages / ginStats.nTotalPages;
+       double      scale = numPages / ginStats.nTotalPages;
 
        numEntryPages = ceil(numEntryPages * scale);
        numDataPages = ceil(numDataPages * scale);
@@ -6389,7 +6389,8 @@ gincostestimate(PG_FUNCTION_ARGS)
    }
 
    /*
-    * Include predicate in selectivityQuals (should match genericcostestimate)
+    * Include predicate in selectivityQuals (should match
+    * genericcostestimate)
     */
    if (index->indpred != NIL)
    {
@@ -6411,12 +6412,12 @@ gincostestimate(PG_FUNCTION_ARGS)
 
    /* Estimate the fraction of main-table tuples that will be visited */
    *indexSelectivity = clauselist_selectivity(root, selectivityQuals,
-                                               index->rel->relid,
-                                               JOIN_INNER,
-                                               NULL);
+                                              index->rel->relid,
+                                              JOIN_INNER,
+                                              NULL);
 
    /* fetch estimated page cost for schema containing index */
-    get_tablespace_page_costs(index->reltablespace,
+   get_tablespace_page_costs(index->reltablespace,
                              &spc_random_page_cost,
                              NULL);
 
@@ -6430,22 +6431,22 @@ gincostestimate(PG_FUNCTION_ARGS)
     */
    foreach(l, indexQuals)
    {
-       RestrictInfo    *rinfo = (RestrictInfo *) lfirst(l);
-       Expr            *clause;
-       Node            *leftop,
-                       *rightop,
-                       *operand;
-       Oid             extractProcOid;
-       Oid             clause_op;
-       int             strategy_op;
-       Oid             lefttype,
-                       righttype;
-       int32           nentries = 0;
-       bool            *partial_matches = NULL;
-       Pointer         *extra_data = NULL;
-       bool           *nullFlags = NULL;
-       int32           searchMode = GIN_SEARCH_MODE_DEFAULT;
-       int             indexcol;
+       RestrictInfo *rinfo = (RestrictInfo *) lfirst(l);
+       Expr       *clause;
+       Node       *leftop,
+                  *rightop,
+                  *operand;
+       Oid         extractProcOid;
+       Oid         clause_op;
+       int         strategy_op;
+       Oid         lefttype,
+                   righttype;
+       int32       nentries = 0;
+       bool       *partial_matches = NULL;
+       Pointer    *extra_data = NULL;
+       bool       *nullFlags = NULL;
+       int32       searchMode = GIN_SEARCH_MODE_DEFAULT;
+       int         indexcol;
 
        Assert(IsA(rinfo, RestrictInfo));
        clause = rinfo->clause;
@@ -6466,16 +6467,16 @@ gincostestimate(PG_FUNCTION_ARGS)
        else
        {
            elog(ERROR, "could not match index to operand");
-           operand = NULL; /* keep compiler quiet */
+           operand = NULL;     /* keep compiler quiet */
        }
 
        if (IsA(operand, RelabelType))
            operand = (Node *) ((RelabelType *) operand)->arg;
 
        /*
-        * It's impossible to call extractQuery method for unknown operand.
-        * So unless operand is a Const we can't do much; just assume there
-        * will be one ordinary search entry from the operand at runtime.
+        * It's impossible to call extractQuery method for unknown operand. So
+        * unless operand is a Const we can't do much; just assume there will
+        * be one ordinary search entry from the operand at runtime.
         */
        if (!IsA(operand, Const))
        {
@@ -6484,7 +6485,7 @@ gincostestimate(PG_FUNCTION_ARGS)
        }
 
        /* If Const is null, there can be no matches */
-       if (((Const*) operand)->constisnull)
+       if (((Const *) operand)->constisnull)
        {
            *indexStartupCost = 0;
            *indexTotalCost = 0;
@@ -6494,9 +6495,9 @@ gincostestimate(PG_FUNCTION_ARGS)
 
        /*
         * Get the operator's strategy number and declared input data types
-        * within the index opfamily.  (We don't need the latter, but we
-        * use get_op_opfamily_properties because it will throw error if
-        * it fails to find a matching pg_amop entry.)
+        * within the index opfamily.  (We don't need the latter, but we use
+        * get_op_opfamily_properties because it will throw error if it fails
+        * to find a matching pg_amop entry.)
         */
        get_op_opfamily_properties(clause_op, index->opfamily[indexcol], false,
                                   &strategy_op, &lefttype, &righttype);
@@ -6515,12 +6516,12 @@ gincostestimate(PG_FUNCTION_ARGS)
        {
            /* should not happen; throw same error as index_getprocinfo */
            elog(ERROR, "missing support function %d for attribute %d of index \"%s\"",
-                GIN_EXTRACTQUERY_PROC, indexcol+1,
+                GIN_EXTRACTQUERY_PROC, indexcol + 1,
                 get_rel_name(index->indexoid));
        }
 
        OidFunctionCall7(extractProcOid,
-                        ((Const*) operand)->constvalue,
+                        ((Const *) operand)->constvalue,
                         PointerGetDatum(&nentries),
                         UInt16GetDatum(strategy_op),
                         PointerGetDatum(&partial_matches),
@@ -6538,9 +6539,9 @@ gincostestimate(PG_FUNCTION_ARGS)
        }
        else
        {
-           int32   i;
+           int32       i;
 
-           for (i=0; i<nentries; i++)
+           for (i = 0; i < nentries; i++)
            {
                /*
                 * For partial match we haven't any information to estimate
@@ -6585,32 +6586,30 @@ gincostestimate(PG_FUNCTION_ARGS)
        num_scans = 1;
 
    /*
-    * cost to begin scan, first of all, pay attention to
-    * pending list.
+    * cost to begin scan, first of all, pay attention to pending list.
     */
    entryPagesFetched = numPendingPages;
 
    /*
     * Estimate number of entry pages read.  We need to do
     * searchEntriesInQuals searches.  Use a power function as it should be,
-    * but tuples on leaf pages usually is much greater.
-    * Here we include all searches in entry tree, including
-    * search of first entry in partial match algorithm
+    * but tuples on leaf pages usually is much greater. Here we include all
+    * searches in entry tree, including search of first entry in partial
+    * match algorithm
     */
    entryPagesFetched += ceil(searchEntriesInQuals * rint(pow(numEntryPages, 0.15)));
 
    /*
-    * Add an estimate of entry pages read by partial match algorithm.
-    * It's a scan over leaf pages in entry tree.  We haven't any useful stats
-    * here, so estimate it as proportion.
+    * Add an estimate of entry pages read by partial match algorithm. It's a
+    * scan over leaf pages in entry tree.  We haven't any useful stats here,
+    * so estimate it as proportion.
     */
    entryPagesFetched += ceil(numEntryPages * partialEntriesInQuals / numEntries);
 
    /*
-    * Partial match algorithm reads all data pages before
-    * doing actual scan, so it's a startup cost. Again,
-    * we havn't any useful stats here, so, estimate it as
-    * proportion
+    * Partial match algorithm reads all data pages before doing actual scan,
+    * so it's a startup cost. Again, we havn't any useful stats here, so,
+    * estimate it as proportion
     */
    dataPagesFetched = ceil(numDataPages * partialEntriesInQuals / numEntries);
 
@@ -6626,8 +6625,8 @@ gincostestimate(PG_FUNCTION_ARGS)
    }
 
    /*
-    * Here we use random page cost because logically-close pages could be
-    * far apart on disk.
+    * Here we use random page cost because logically-close pages could be far
+    * apart on disk.
     */
    *indexStartupCost = (entryPagesFetched + dataPagesFetched) * spc_random_page_cost;
 
@@ -6639,16 +6638,16 @@ gincostestimate(PG_FUNCTION_ARGS)
     * capacity of data page.
     */
    dataPagesFetchedBySel = ceil(*indexSelectivity *
-                                (numTuples / (BLCKSZ/SizeOfIptrData)));
+                                (numTuples / (BLCKSZ / SizeOfIptrData)));
 
    if (dataPagesFetchedBySel > dataPagesFetched)
    {
        /*
-        * At least one of entries is very frequent and, unfortunately,
-        * we couldn't get statistic about entries (only tsvector has
-        * such statistics). So, we obviously have too small estimation of
-        * pages fetched from data tree. Re-estimate it from known
-        * capacity of data pages
+        * At least one of entries is very frequent and, unfortunately, we
+        * couldn't get statistic about entries (only tsvector has such
+        * statistics). So, we obviously have too small estimation of pages
+        * fetched from data tree. Re-estimate it from known capacity of data
+        * pages
         */
        dataPagesFetched = dataPagesFetchedBySel;
    }
@@ -6670,7 +6669,7 @@ gincostestimate(PG_FUNCTION_ARGS)
    qual_op_cost = cpu_operator_cost *
        (list_length(indexQuals) + list_length(indexOrderBys));
    qual_arg_cost -= qual_op_cost;
-   if (qual_arg_cost < 0)      /* just in case... */
+   if (qual_arg_cost < 0)      /* just in case... */
        qual_arg_cost = 0;
 
    *indexStartupCost += qual_arg_cost;
index 41700bfcf157d7061434d627c6d8b6196dc75685..4cb961146b82fe6e0412d621c229ef4b1a03cf84 100644 (file)
@@ -95,10 +95,12 @@ gin_extract_tsquery(PG_FUNCTION_ARGS)
 {
    TSQuery     query = PG_GETARG_TSQUERY(0);
    int32      *nentries = (int32 *) PG_GETARG_POINTER(1);
+
    /* StrategyNumber strategy = PG_GETARG_UINT16(2); */
    bool      **ptr_partialmatch = (bool **) PG_GETARG_POINTER(3);
    Pointer   **extra_data = (Pointer **) PG_GETARG_POINTER(4);
-   /* bool   **nullFlags = (bool **) PG_GETARG_POINTER(5); */
+
+   /* bool   **nullFlags = (bool **) PG_GETARG_POINTER(5); */
    int32      *searchMode = (int32 *) PG_GETARG_POINTER(6);
    Datum      *entries = NULL;
 
@@ -114,8 +116,8 @@ gin_extract_tsquery(PG_FUNCTION_ARGS)
 
        /*
         * If the query doesn't have any required positive matches (for
-        * instance, it's something like '! foo'), we have to do a full
-        * index scan.
+        * instance, it's something like '! foo'), we have to do a full index
+        * scan.
         */
        if (tsquery_requires_match(item))
            *searchMode = GIN_SEARCH_MODE_DEFAULT;
@@ -235,7 +237,7 @@ gin_tsquery_consistent(PG_FUNCTION_ARGS)
  * Formerly, gin_extract_tsvector had only two arguments.  Now it has three,
  * but we still need a pg_proc entry with two args to support reloading
  * pre-9.1 contrib/tsearch2 opclass declarations.  This compatibility
- * function should go away eventually.  (Note: you might say "hey, but the
+ * function should go away eventually. (Note: you might say "hey, but the
  * code above is only *using* two args, so let's just declare it that way".
  * If you try that you'll find the opr_sanity regression test complains.)
  */
index b7a822d3544aa93dd24318381622d6130273d9e5..66674917f0dd6a721d7c2750b75dadb4a6fad709 100644 (file)
@@ -711,6 +711,7 @@ tsquery_requires_match(QueryItem *curitem)
    switch (curitem->qoperator.oper)
    {
        case OP_NOT:
+
            /*
             * Assume there are no required matches underneath a NOT.  For
             * some cases with nested NOTs, we could prove there's a required
index 0eb6071e123a4b2c39e8a05743650a7308a89a60..3fa81175fd88a2a172a6f731a99bfd863f1642dc 100644 (file)
@@ -237,6 +237,7 @@ bit_out(PG_FUNCTION_ARGS)
    /* same as varbit output */
    return varbit_out(fcinfo);
 #else
+
    /*
     * This is how one would print a hex string, in case someone wants to
     * write a formatting function.
index 7a54521475519c3fe87f7cd59f4a418753d6ab50..9d96013d57e9de4c7b1f5cb75ac1a0f22a624c06 100644 (file)
@@ -81,7 +81,7 @@ void text_format_string_conversion(StringInfo buf, char conversion,
 
 static Datum text_to_array_internal(PG_FUNCTION_ARGS);
 static text *array_to_text_internal(FunctionCallInfo fcinfo, ArrayType *v,
-                                   char *fldsep, char *null_string);
+                      char *fldsep, char *null_string);
 
 
 /*****************************************************************************
@@ -1299,7 +1299,7 @@ varstr_cmp(char *arg1, int len1, char *arg2, int len2, Oid collid)
        char        a2buf[STACKBUFLEN];
        char       *a1p,
                   *a2p;
-       pg_locale_t mylocale = 0;
+       pg_locale_t mylocale = 0;
 
        if (collid != DEFAULT_COLLATION_OID)
        {
@@ -1379,7 +1379,7 @@ varstr_cmp(char *arg1, int len1, char *arg2, int len2, Oid collid)
                result = wcscoll_l((LPWSTR) a1p, (LPWSTR) a2p, mylocale);
            else
 #endif
-           result = wcscoll((LPWSTR) a1p, (LPWSTR) a2p);
+               result = wcscoll((LPWSTR) a1p, (LPWSTR) a2p);
            if (result == 2147483647)   /* _NLSCMPERROR; missing from mingw
                                         * headers */
                ereport(ERROR,
@@ -1426,7 +1426,7 @@ varstr_cmp(char *arg1, int len1, char *arg2, int len2, Oid collid)
            result = strcoll_l(a1p, a2p, mylocale);
        else
 #endif
-       result = strcoll(a1p, a2p);
+           result = strcoll(a1p, a2p);
 
        /*
         * In some locales strcoll() can claim that nonidentical strings are
@@ -1487,10 +1487,10 @@ texteq(PG_FUNCTION_ARGS)
 
    /*
     * Since we only care about equality or not-equality, we can avoid all the
-    * expense of strcoll() here, and just do bitwise comparison.  In fact,
-    * we don't even have to do a bitwise comparison if we can show the
-    * lengths of the strings are unequal; which might save us from having
-    * to detoast one or both values.
+    * expense of strcoll() here, and just do bitwise comparison.  In fact, we
+    * don't even have to do a bitwise comparison if we can show the lengths
+    * of the strings are unequal; which might save us from having to detoast
+    * one or both values.
     */
    len1 = toast_raw_datum_size(arg1);
    len2 = toast_raw_datum_size(arg2);
@@ -2031,7 +2031,7 @@ byteaGetByte(PG_FUNCTION_ARGS)
    bytea      *v = PG_GETARG_BYTEA_PP(0);
    int32       n = PG_GETARG_INT32(1);
    int         len;
-   int byte;
+   int         byte;
 
    len = VARSIZE_ANY_EXHDR(v);
 
@@ -2062,7 +2062,7 @@ byteaGetBit(PG_FUNCTION_ARGS)
    int         byteNo,
                bitNo;
    int         len;
-   int byte;
+   int         byte;
 
    len = VARSIZE_ANY_EXHDR(v);
 
@@ -2077,7 +2077,7 @@ byteaGetBit(PG_FUNCTION_ARGS)
 
    byte = ((unsigned char *) VARDATA_ANY(v))[byteNo];
 
-   if (byte &(1 << bitNo))
+   if (byte & (1 << bitNo))
        PG_RETURN_INT32(1);
    else
        PG_RETURN_INT32(0);
@@ -3144,7 +3144,7 @@ text_to_array_internal(PG_FUNCTION_ARGS)
            /* single element can be a NULL too */
            is_null = null_string ? text_isequal(inputstring, null_string) : false;
            PG_RETURN_ARRAYTYPE_P(create_singleton_array(fcinfo, TEXTOID,
-                                                        PointerGetDatum(inputstring),
+                                               PointerGetDatum(inputstring),
                                                         is_null, 1));
        }
 
@@ -3152,7 +3152,7 @@ text_to_array_internal(PG_FUNCTION_ARGS)
        /* start_ptr points to the start_posn'th character of inputstring */
        start_ptr = VARDATA_ANY(inputstring);
 
-       for (fldnum = 1;; fldnum++) /* field number is 1 based */
+       for (fldnum = 1;; fldnum++)     /* field number is 1 based */
        {
            CHECK_FOR_INTERRUPTS();
 
@@ -3197,8 +3197,8 @@ text_to_array_internal(PG_FUNCTION_ARGS)
    {
        /*
         * When fldsep is NULL, each character in the inputstring becomes an
-        * element in the result array.  The separator is effectively the space
-        * between characters.
+        * element in the result array.  The separator is effectively the
+        * space between characters.
         */
        inputstring_len = VARSIZE_ANY_EXHDR(inputstring);
 
@@ -3210,7 +3210,7 @@ text_to_array_internal(PG_FUNCTION_ARGS)
 
        while (inputstring_len > 0)
        {
-           int     chunk_len = pg_mblen(start_ptr);
+           int         chunk_len = pg_mblen(start_ptr);
 
            CHECK_FOR_INTERRUPTS();
 
@@ -3625,9 +3625,9 @@ string_agg_finalfn(PG_FUNCTION_ARGS)
 static text *
 concat_internal(const char *sepstr, int seplen, int argidx, FunctionCallInfo fcinfo)
 {
-   StringInfoData  str;
-   text           *result;
-   int             i;
+   StringInfoData str;
+   text       *result;
+   int         i;
 
    initStringInfo(&str);
 
@@ -3635,10 +3635,10 @@ concat_internal(const char *sepstr, int seplen, int argidx, FunctionCallInfo fci
    {
        if (!PG_ARGISNULL(i))
        {
-           Oid     valtype;
-           Datum   value;
-           Oid     typOutput;
-           bool    typIsVarlena;
+           Oid         valtype;
+           Datum       value;
+           Oid         typOutput;
+           bool        typIsVarlena;
 
            if (i > argidx)
                appendBinaryStringInfo(&str, sepstr, seplen);
@@ -3648,7 +3648,7 @@ concat_internal(const char *sepstr, int seplen, int argidx, FunctionCallInfo fci
            valtype = get_fn_expr_argtype(fcinfo->flinfo, i);
            getTypeOutputInfo(valtype, &typOutput, &typIsVarlena);
            appendStringInfoString(&str,
-               OidOutputFunctionCall(typOutput, value));
+                                  OidOutputFunctionCall(typOutput, value));
        }
    }
 
@@ -3674,7 +3674,7 @@ text_concat(PG_FUNCTION_ARGS)
 Datum
 text_concat_ws(PG_FUNCTION_ARGS)
 {
-   text           *sep;
+   text       *sep;
 
    /* return NULL when separator is NULL */
    if (PG_ARGISNULL(0))
@@ -3683,7 +3683,7 @@ text_concat_ws(PG_FUNCTION_ARGS)
    sep = PG_GETARG_TEXT_PP(0);
 
    PG_RETURN_TEXT_P(concat_internal(
-       VARDATA_ANY(sep), VARSIZE_ANY_EXHDR(sep), 1, fcinfo));
+                      VARDATA_ANY(sep), VARSIZE_ANY_EXHDR(sep), 1, fcinfo));
 }
 
 /*
@@ -3734,15 +3734,15 @@ text_right(PG_FUNCTION_ARGS)
 Datum
 text_reverse(PG_FUNCTION_ARGS)
 {
-   text           *str = PG_GETARG_TEXT_PP(0);
-   const char     *p = VARDATA_ANY(str);
-   int             len = VARSIZE_ANY_EXHDR(str);
-   const char     *endp = p + len;
-   text           *result;
-   char           *dst;
+   text       *str = PG_GETARG_TEXT_PP(0);
+   const char *p = VARDATA_ANY(str);
+   int         len = VARSIZE_ANY_EXHDR(str);
+   const char *endp = p + len;
+   text       *result;
+   char       *dst;
 
    result = palloc(len + VARHDRSZ);
-   dst = (char*) VARDATA(result) + len;
+   dst = (char *) VARDATA(result) + len;
    SET_VARSIZE(result, len + VARHDRSZ);
 
    if (pg_database_encoding_max_length() > 1)
@@ -3750,7 +3750,7 @@ text_reverse(PG_FUNCTION_ARGS)
        /* multibyte version */
        while (p < endp)
        {
-           int     sz;
+           int         sz;
 
            sz = pg_mblen(p);
            dst -= sz;
@@ -3775,7 +3775,7 @@ Datum
 text_format(PG_FUNCTION_ARGS)
 {
    text       *fmt;
-   StringInfoData  str;
+   StringInfoData str;
    const char *cp;
    const char *start_ptr;
    const char *end_ptr;
@@ -3795,9 +3795,9 @@ text_format(PG_FUNCTION_ARGS)
    /* Scan format string, looking for conversion specifiers. */
    for (cp = start_ptr; cp < end_ptr; cp++)
    {
-       Datum   value;
-       bool    isNull;
-       Oid     typid;
+       Datum       value;
+       bool        isNull;
+       Oid         typid;
 
        /*
         * If it's not the start of a conversion specifier, just copy it to
@@ -3830,11 +3830,12 @@ text_format(PG_FUNCTION_ARGS)
            ++arg;
        else
        {
-           bool unterminated = false;
+           bool        unterminated = false;
 
            /* Parse digit string. */
            arg = 0;
-           do {
+           do
+           {
                /* Treat overflowing arg position as unterminated. */
                if (arg > INT_MAX / 10)
                    break;
@@ -3863,8 +3864,8 @@ text_format(PG_FUNCTION_ARGS)
            /* There's no argument 0. */
            if (arg == 0)
                ereport(ERROR,
-                   (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-                    errmsg("conversion specifies argument 0, but arguments are numbered from 1")));
+                       (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
+                        errmsg("conversion specifies argument 0, but arguments are numbered from 1")));
        }
 
        /* Not enough arguments?  Deduct 1 to avoid counting format string. */
@@ -3874,9 +3875,9 @@ text_format(PG_FUNCTION_ARGS)
                     errmsg("too few arguments for format conversion")));
 
        /*
-        * At this point, we should see the main conversion specifier.
-        * Whether or not an argument position was present, it's known
-        * that at least one character remains in the string at this point.
+        * At this point, we should see the main conversion specifier. Whether
+        * or not an argument position was present, it's known that at least
+        * one character remains in the string at this point.
         */
        value = PG_GETARG_DATUM(arg);
        isNull = PG_ARGISNULL(arg);
@@ -3893,7 +3894,7 @@ text_format(PG_FUNCTION_ARGS)
                ereport(ERROR,
                        (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
                         errmsg("unrecognized conversion specifier: %c",
-                           *cp)));
+                               *cp)));
        }
    }
 
@@ -3907,11 +3908,11 @@ text_format(PG_FUNCTION_ARGS)
 /* Format a %s, %I, or %L conversion. */
 void
 text_format_string_conversion(StringInfo buf, char conversion,
-                        Oid typid, Datum value, bool isNull)
+                             Oid typid, Datum value, bool isNull)
 {
-   Oid     typOutput;
-   bool    typIsVarlena;
-   char   *str;
+   Oid         typOutput;
+   bool        typIsVarlena;
+   char       *str;
 
    /* Handle NULL arguments before trying to stringify the value. */
    if (isNull)
@@ -3919,7 +3920,7 @@ text_format_string_conversion(StringInfo buf, char conversion,
        if (conversion == 'L')
            appendStringInfoString(buf, "NULL");
        else if (conversion == 'I')
-           ereport(ERROR, 
+           ereport(ERROR,
                    (errcode(ERRCODE_NULL_VALUE_NOT_ALLOWED),
                     errmsg("NULL cannot be escaped as an SQL identifier")));
        return;
@@ -3937,7 +3938,8 @@ text_format_string_conversion(StringInfo buf, char conversion,
    }
    else if (conversion == 'L')
    {
-       char *qstr = quote_literal_cstr(str);
+       char       *qstr = quote_literal_cstr(str);
+
        appendStringInfoString(buf, qstr);
        /* quote_literal_cstr() always allocates a new string */
        pfree(qstr);
@@ -3951,7 +3953,7 @@ text_format_string_conversion(StringInfo buf, char conversion,
 
 /*
  * text_format_nv - nonvariadic wrapper for text_format function.
- * 
+ *
  * note: this wrapper is necessary to be sanity_checks test ok
  */
 Datum
index c175e4f4cac2bc41d1fd41902da78df37ca1100f..ee82d4616c644d25ecd32876ccdac6d046d61fbf 100644 (file)
@@ -1200,9 +1200,10 @@ xml_parse(text *data, XmlOptionType xmloption_arg, bool preserve_whitespace,
        {
            /*
             * Note, that here we try to apply DTD defaults
-            * (XML_PARSE_DTDATTR) according to SQL/XML:2008 GR 10.16.7.d: 'Default
-            * values defined by internal DTD are applied'. As for external
-            * DTDs, we try to support them too, (see SQL/XML:2008 GR 10.16.7.e)
+            * (XML_PARSE_DTDATTR) according to SQL/XML:2008 GR 10.16.7.d:
+            * 'Default values defined by internal DTD are applied'. As for
+            * external DTDs, we try to support them too, (see SQL/XML:2008 GR
+            * 10.16.7.e)
             */
            doc = xmlCtxtReadDoc(ctxt, utf8string,
                                 NULL,
@@ -3435,10 +3436,10 @@ xpath_internal(text *xpath_expr_text, xmltype *data, ArrayType *namespaces,
 
        /*
         * Version 2.6.27 introduces a function named
-        * xmlXPathCompiledEvalToBoolean, which would be enough for
-        * xmlexists, but we can derive the existence by whether any
-        * nodes are returned, thereby preventing a library version
-        * upgrade and keeping the code the same.
+        * xmlXPathCompiledEvalToBoolean, which would be enough for xmlexists,
+        * but we can derive the existence by whether any nodes are returned,
+        * thereby preventing a library version upgrade and keeping the code
+        * the same.
         */
        xpathobj = xmlXPathCompiledEval(xpathcomp, xpathctx);
        if (xpathobj == NULL)   /* TODO: reason? */
@@ -3488,7 +3489,7 @@ xpath_internal(text *xpath_expr_text, xmltype *data, ArrayType *namespaces,
    xmlFreeDoc(doc);
    xmlFreeParserCtxt(ctxt);
 }
-#endif /* USE_LIBXML */
+#endif   /* USE_LIBXML */
 
 /*
  * Evaluate XPath expression and return array of XML values.
@@ -3524,7 +3525,8 @@ xpath(PG_FUNCTION_ARGS)
  * Determines if the node specified by the supplied XPath exists
  * in a given XML document, returning a boolean.
  */
-Datum xmlexists(PG_FUNCTION_ARGS)
+Datum
+xmlexists(PG_FUNCTION_ARGS)
 {
 #ifdef USE_LIBXML
    text       *xpath_expr_text = PG_GETARG_TEXT_P(0);
index fe89b71df2d7e8696ed4103478f3eba4adb3ebda..ebc83440deac2a89fdc6e577824ac4e1b28c4c3c 100644 (file)
@@ -514,7 +514,8 @@ LocalExecuteInvalidationMessage(SharedInvalidationMessage *msg)
         * We could have smgr entries for relations of other databases, so no
         * short-circuit test is possible here.
         */
-       RelFileNodeBackend  rnode;
+       RelFileNodeBackend rnode;
+
        rnode.node = msg->sm.rnode;
        rnode.backend = (msg->sm.backend_hi << 16) | (int) msg->sm.backend_lo;
        smgrclosenode(rnode);
index 877e50d8737de664cb289238cf60651cd84fbfa3..d3b2a5a5572ee3afb556012600372002761ef3fc 100644 (file)
@@ -1122,7 +1122,7 @@ op_input_types(Oid opno, Oid *lefttype, Oid *righttype)
  *
  * In some cases (currently only array_eq), mergejoinability depends on the
  * specific input data type the operator is invoked for, so that must be
- * passed as well.  We currently assume that only one input's type is needed
+ * passed as well. We currently assume that only one input's type is needed
  * to check this --- by convention, pass the left input's data type.
  */
 bool
@@ -1172,7 +1172,7 @@ op_mergejoinable(Oid opno, Oid inputtype)
  *
  * In some cases (currently only array_eq), hashjoinability depends on the
  * specific input data type the operator is invoked for, so that must be
- * passed as well.  We currently assume that only one input's type is needed
+ * passed as well. We currently assume that only one input's type is needed
  * to check this --- by convention, pass the left input's data type.
  */
 bool
@@ -2709,9 +2709,9 @@ get_attstatsslot(HeapTuple statstuple,
        /*
         * Need to get info about the array element type.  We look at the
         * actual element type embedded in the array, which might be only
-        * binary-compatible with the passed-in atttype.  The info we
-        * extract here should be the same either way, but deconstruct_array
-        * is picky about having an exact type OID match.
+        * binary-compatible with the passed-in atttype.  The info we extract
+        * here should be the same either way, but deconstruct_array is picky
+        * about having an exact type OID match.
         */
        arrayelemtype = ARR_ELEMTYPE(statarray);
        typeTuple = SearchSysCache1(TYPEOID, ObjectIdGetDatum(arrayelemtype));
index 949608001ea325284af5deda0d6aeb178716e993..08ddfa9bcbad73fa37d02168b0e9dadb71e15430 100644 (file)
@@ -512,8 +512,8 @@ RevalidateCachedPlan(CachedPlanSource *plansource, bool useResOwner)
        TupleDesc   resultDesc;
 
        /*
-        * Restore the search_path that was in use when the plan was made.
-        * See comments for PushOverrideSearchPath about limitations of this.
+        * Restore the search_path that was in use when the plan was made. See
+        * comments for PushOverrideSearchPath about limitations of this.
         *
         * (XXX is there anything else we really need to restore?)
         */
index 274b48c8951e194b985301af6db9d4ba4a600674..d7e94ffc125de783d2581b8eac409369c2e5064a 100644 (file)
@@ -1070,9 +1070,9 @@ RelationInitIndexAccessInfo(Relation relation)
        MemoryContextAllocZero(indexcxt, natts * sizeof(int16));
 
    /*
-    * indcollation cannot be referenced directly through the C struct, because it
-    * comes after the variable-width indkey field.  Must extract the datum
-    * the hard way...
+    * indcollation cannot be referenced directly through the C struct,
+    * because it comes after the variable-width indkey field.  Must extract
+    * the datum the hard way...
     */
    indcollDatum = fastgetattr(relation->rd_indextuple,
                               Anum_pg_index_indcollation,
@@ -1096,7 +1096,7 @@ RelationInitIndexAccessInfo(Relation relation)
 
    /*
     * Fill the support procedure OID array, as well as the info about
-    * opfamilies and opclass input types.  (aminfo and supportinfo are left
+    * opfamilies and opclass input types.  (aminfo and supportinfo are left
     * as zeroes, and are filled on-the-fly when used)
     */
    IndexSupportInitialize(indclass, relation->rd_support,
index 715341f8420b461e50a7b5dc7ffd78fb8431225e..2b5e37e2f058db895de9bdb2d88400815c10c31b 100644 (file)
@@ -422,7 +422,7 @@ static const struct cachedesc cacheinfo[] = {
        },
        32
    },
-   {ForeignTableRelationId,        /* FOREIGNTABLEREL */
+   {ForeignTableRelationId,    /* FOREIGNTABLEREL */
        ForeignTableRelidIndexId,
        1,
        {
index fc93551d069d2de1bce3de51dacd8385fab6dea9..a8c4d76565a375d888dc0cc28cefac23969d7daa 100644 (file)
@@ -582,7 +582,7 @@ getTSCurrentConfig(bool emitError)
    /* Look up the config */
    TSCurrentConfigCache =
        get_ts_config_oid(stringToQualifiedNameList(TSCurrentConfig),
-                        !emitError);
+                         !emitError);
 
    return TSCurrentConfigCache;
 }
index 54e1942c319efd27be2ba15c8244cef7d6e5b35f..2769a30acd872309f0908ed1d78a2422237c02c5 100644 (file)
@@ -77,7 +77,7 @@ typedef struct TypeCacheEnumData
    Oid         bitmap_base;    /* OID corresponding to bit 0 of bitmapset */
    Bitmapset  *sorted_values;  /* Set of OIDs known to be in order */
    int         num_values;     /* total number of values in enum */
-   EnumItem    enum_values[1]; /* VARIABLE LENGTH ARRAY */
+   EnumItem    enum_values[1]; /* VARIABLE LENGTH ARRAY */
 } TypeCacheEnumData;
 
 /*
@@ -227,10 +227,10 @@ lookup_type_cache(Oid type_id, int flags)
        {
            /*
             * In case we find a btree opclass where previously we only found
-            * a hash opclass, reset eq_opr and derived information so that
-            * we can fetch the btree equality operator instead of the hash
-            * equality operator.  (They're probably the same operator, but
-            * we don't assume that here.)
+            * a hash opclass, reset eq_opr and derived information so that we
+            * can fetch the btree equality operator instead of the hash
+            * equality operator.  (They're probably the same operator, but we
+            * don't assume that here.)
             */
            typentry->eq_opr = InvalidOid;
            typentry->eq_opr_finfo.fn_oid = InvalidOid;
@@ -612,7 +612,8 @@ TypeCacheRelCallback(Datum arg, Oid relid)
    while ((typentry = (TypeCacheEntry *) hash_seq_search(&status)) != NULL)
    {
        if (typentry->tupDesc == NULL)
-           continue;   /* not composite, or tupdesc hasn't been requested */
+           continue;           /* not composite, or tupdesc hasn't been
+                                * requested */
 
        /* Delete if match, or if we're zapping all composite types */
        if (relid == typentry->typrelid || relid == InvalidOid)
@@ -671,8 +672,8 @@ compare_values_of_enum(TypeCacheEntry *tcache, Oid arg1, Oid arg2)
    EnumItem   *item2;
 
    /*
-    * Equal OIDs are certainly equal --- this case was probably handled
-    * by our caller, but we may as well check.
+    * Equal OIDs are certainly equal --- this case was probably handled by
+    * our caller, but we may as well check.
     */
    if (arg1 == arg2)
        return 0;
@@ -704,8 +705,8 @@ compare_values_of_enum(TypeCacheEntry *tcache, Oid arg1, Oid arg2)
    {
        /*
         * We couldn't find one or both values.  That means the enum has
-        * changed under us, so re-initialize the cache and try again.
-        * We don't bother retrying the known-sorted case in this path.
+        * changed under us, so re-initialize the cache and try again. We
+        * don't bother retrying the known-sorted case in this path.
         */
        load_enum_cache_data(tcache);
        enumdata = tcache->enumData;
@@ -714,8 +715,8 @@ compare_values_of_enum(TypeCacheEntry *tcache, Oid arg1, Oid arg2)
        item2 = find_enumitem(enumdata, arg2);
 
        /*
-        * If we still can't find the values, complain: we must have
-        * corrupt data.
+        * If we still can't find the values, complain: we must have corrupt
+        * data.
         */
        if (item1 == NULL)
            elog(ERROR, "enum value %u not found in cache for enum %s",
@@ -761,21 +762,21 @@ load_enum_cache_data(TypeCacheEntry *tcache)
                        format_type_be(tcache->type_id))));
 
    /*
-    * Read all the information for members of the enum type.  We collect
-    * the info in working memory in the caller's context, and then transfer
-    * it to permanent memory in CacheMemoryContext.  This minimizes the risk
-    * of leaking memory from CacheMemoryContext in the event of an error
-    * partway through.
+    * Read all the information for members of the enum type.  We collect the
+    * info in working memory in the caller's context, and then transfer it to
+    * permanent memory in CacheMemoryContext.  This minimizes the risk of
+    * leaking memory from CacheMemoryContext in the event of an error partway
+    * through.
     */
    maxitems = 64;
    items = (EnumItem *) palloc(sizeof(EnumItem) * maxitems);
    numitems = 0;
 
    /*
-    * Scan pg_enum for the members of the target enum type.  We use a
-    * current MVCC snapshot, *not* SnapshotNow, so that we see a consistent
-    * set of rows even if someone commits a renumbering of the enum meanwhile.
-    * See comments for RenumberEnumType in catalog/pg_enum.c for more info.
+    * Scan pg_enum for the members of the target enum type.  We use a current
+    * MVCC snapshot, *not* SnapshotNow, so that we see a consistent set of
+    * rows even if someone commits a renumbering of the enum meanwhile. See
+    * comments for RenumberEnumType in catalog/pg_enum.c for more info.
     */
    ScanKeyInit(&skey,
                Anum_pg_enum_enumtypid,
@@ -817,8 +818,8 @@ load_enum_cache_data(TypeCacheEntry *tcache)
     * and we'd rather not do binary searches unnecessarily.
     *
     * This is somewhat heuristic, and might identify a subset of OIDs that
-    * isn't exactly what the type started with.  That's okay as long as
-    * the subset is correctly sorted.
+    * isn't exactly what the type started with.  That's okay as long as the
+    * subset is correctly sorted.
     */
    bitmap_base = InvalidOid;
    bitmap = NULL;
@@ -829,15 +830,15 @@ load_enum_cache_data(TypeCacheEntry *tcache)
        /*
         * Identify longest sorted subsequence starting at start_pos
         */
-       Bitmapset *this_bitmap = bms_make_singleton(0);
-       int     this_bm_size = 1;
-       Oid     start_oid = items[start_pos].enum_oid;
-       float4  prev_order = items[start_pos].sort_order;
-       int     i;
+       Bitmapset  *this_bitmap = bms_make_singleton(0);
+       int         this_bm_size = 1;
+       Oid         start_oid = items[start_pos].enum_oid;
+       float4      prev_order = items[start_pos].sort_order;
+       int         i;
 
        for (i = start_pos + 1; i < numitems; i++)
        {
-           Oid     offset;
+           Oid         offset;
 
            offset = items[i].enum_oid - start_oid;
            /* quit if bitmap would be too large; cutoff is arbitrary */
@@ -864,10 +865,10 @@ load_enum_cache_data(TypeCacheEntry *tcache)
            bms_free(this_bitmap);
 
        /*
-        * Done if it's not possible to find a longer sequence in the rest
-        * of the list.  In typical cases this will happen on the first
-        * iteration, which is why we create the bitmaps on the fly instead
-        * of doing a second pass over the list.
+        * Done if it's not possible to find a longer sequence in the rest of
+        * the list.  In typical cases this will happen on the first
+        * iteration, which is why we create the bitmaps on the fly instead of
+        * doing a second pass over the list.
         */
        if (bm_size >= (numitems - start_pos - 1))
            break;
index 9e58735aeec2fdc48e9838a5d1997e52db51afb9..337b875fe20ca92c2711371b4aa1964ca0fed4e2 100644 (file)
@@ -5,7 +5,7 @@
  *
  * Because of the extremely high rate at which log messages can be generated,
  * we need to be mindful of the performance cost of obtaining any information
- * that may be logged.  Also, it's important to keep in mind that this code may
+ * that may be logged. Also, it's important to keep in mind that this code may
  * get called from within an aborted transaction, in which case operations
  * such as syscache lookups are unsafe.
  *
@@ -1175,7 +1175,7 @@ elog_finish(int elevel, const char *fmt,...)
  * The result of format_elog_string() is stored in ErrorContext, and will
  * therefore survive until FlushErrorState() is called.
  */
-static int save_format_errnumber;
+static int save_format_errnumber;
 static const char *save_format_domain;
 
 void
@@ -1188,7 +1188,7 @@ pre_format_elog_string(int errnumber, const char *domain)
 }
 
 char *
-format_elog_string(const char *fmt, ...)
+format_elog_string(const char *fmt,...)
 {
    ErrorData   errdata;
    ErrorData  *edata;
@@ -1725,8 +1725,9 @@ write_console(const char *line, int len)
     * WriteConsoleW() will fail of stdout is redirected, so just fall through
     * to writing unconverted to the logfile in this case.
     *
-    * Since we palloc the structure required for conversion, also fall through
-    * to writing unconverted if we have not yet set up CurrentMemoryContext.
+    * Since we palloc the structure required for conversion, also fall
+    * through to writing unconverted if we have not yet set up
+    * CurrentMemoryContext.
     */
    if (GetDatabaseEncoding() != GetPlatformEncoding() &&
        !in_error_recursion_trouble() &&
index e193e560eaba4834c1dc6c0dc24e3618ce451cae..0288fbab4bc65e4d4c38bfac150815309f3c59e9 100644 (file)
@@ -34,7 +34,7 @@
  * Hooks for function calls
  */
 PGDLLIMPORT needs_fmgr_hook_type needs_fmgr_hook = NULL;
-PGDLLIMPORT fmgr_hook_type       fmgr_hook = NULL;
+PGDLLIMPORT fmgr_hook_type fmgr_hook = NULL;
 
 /*
  * Declaration for old-style function pointer type.  This is now used only
@@ -192,7 +192,7 @@ fmgr_info_cxt_security(Oid functionId, FmgrInfo *finfo, MemoryContext mcxt,
     * elogs.
     */
    finfo->fn_oid = InvalidOid;
-   finfo->fn_collation = InvalidOid;       /* caller may set this later */
+   finfo->fn_collation = InvalidOid;   /* caller may set this later */
    finfo->fn_extra = NULL;
    finfo->fn_mcxt = mcxt;
    finfo->fn_expr = NULL;      /* caller may set this later */
@@ -951,7 +951,7 @@ fmgr_security_definer(PG_FUNCTION_ARGS)
 
    /* function manager hook */
    if (fmgr_hook)
-       (*fmgr_hook)(FHET_START, &fcache->flinfo, &fcache->arg);
+       (*fmgr_hook) (FHET_START, &fcache->flinfo, &fcache->arg);
 
    /*
     * We don't need to restore GUC or userid settings on error, because the
@@ -982,7 +982,7 @@ fmgr_security_definer(PG_FUNCTION_ARGS)
    {
        fcinfo->flinfo = save_flinfo;
        if (fmgr_hook)
-           (*fmgr_hook)(FHET_ABORT, &fcache->flinfo, &fcache->arg);
+           (*fmgr_hook) (FHET_ABORT, &fcache->flinfo, &fcache->arg);
        PG_RE_THROW();
    }
    PG_END_TRY();
@@ -994,7 +994,7 @@ fmgr_security_definer(PG_FUNCTION_ARGS)
    if (OidIsValid(fcache->userid))
        SetUserIdAndSecContext(save_userid, save_sec_context);
    if (fmgr_hook)
-       (*fmgr_hook)(FHET_END, &fcache->flinfo, &fcache->arg);
+       (*fmgr_hook) (FHET_END, &fcache->flinfo, &fcache->arg);
 
    return result;
 }
@@ -1278,7 +1278,7 @@ DirectFunctionCall9(PGFunction func, Datum arg1, Datum arg2,
 
 /*
  * These are the same as DirectFunctionCallN except that a nonzero
- * collation can be specified.  No other fields of FmgrInfo are made valid.
+ * collation can be specified. No other fields of FmgrInfo are made valid.
  */
 Datum
 DirectFunctionCall1WithCollation(PGFunction func, Oid collation, Datum arg1)
index cad4a371b7df652ab140e698227306191df9c9e3..aa249fabfe83bb43f3881b507f11825257fd1ffd 100644 (file)
@@ -489,8 +489,8 @@ resolve_polymorphic_tupdesc(TupleDesc tupdesc, oidvector *declared_args,
        return false;
 
    /*
-    * Identify the collation to use for polymorphic OUT parameters.
-    * (It'll necessarily be the same for both anyelement and anyarray.)
+    * Identify the collation to use for polymorphic OUT parameters. (It'll
+    * necessarily be the same for both anyelement and anyarray.)
     */
    anycollation = get_typcollation(OidIsValid(anyelement_type) ? anyelement_type : anyarray_type);
    if (OidIsValid(anycollation))
@@ -500,7 +500,7 @@ resolve_polymorphic_tupdesc(TupleDesc tupdesc, oidvector *declared_args,
         * collation.  We do so if we can identify the input collation used
         * for the function.
         */
-       Oid     inputcollation = exprInputCollation(call_expr);
+       Oid         inputcollation = exprInputCollation(call_expr);
 
        if (OidIsValid(inputcollation))
            anycollation = inputcollation;
index ef6422e75c35872f520133b796be4a932b1562d7..347a777da9932840237039f4fe984d7c6215a26f 100644 (file)
@@ -394,8 +394,8 @@ SetUserIdAndContext(Oid userid, bool sec_def_context)
 bool
 is_authenticated_user_replication_role(void)
 {
-   bool            result = false;
-   HeapTuple       utup;
+   bool        result = false;
+   HeapTuple   utup;
 
    utup = SearchSysCache1(AUTHOID, ObjectIdGetDatum(AuthenticatedUserId));
    if (HeapTupleIsValid(utup))
@@ -866,7 +866,7 @@ CreateLockFile(const char *filename, bool amPostmaster,
                                    "(key %lu, ID %lu) is still in use",
                                    id1, id2),
                             errhint("If you're sure there are no old "
-                               "server processes still running, remove "
+                                    "server processes still running, remove "
                                     "the shared memory block "
                                     "or just delete the file \"%s\".",
                                     filename)));
@@ -889,8 +889,8 @@ CreateLockFile(const char *filename, bool amPostmaster,
    }
 
    /*
-    * Successfully created the file, now fill it.  See comment in miscadmin.h
-    * about the contents.  Note that we write the same info into both datadir
+    * Successfully created the file, now fill it.  See comment in miscadmin.h
+    * about the contents.  Note that we write the same info into both datadir
     * and socket lockfiles; although more stuff may get added to the datadir
     * lockfile later.
     */
@@ -904,7 +904,7 @@ CreateLockFile(const char *filename, bool amPostmaster,
 #else
             ""
 #endif
-            );
+       );
 
    errno = 0;
    if (write(fd, buffer, strlen(buffer)) != strlen(buffer))
index f3ca5a5cd6aef4cbefbe58cd40e9613e17d274ed..a4c5d4c69ab630813f9720f7a13a98f4a5cf926c 100644 (file)
@@ -222,8 +222,8 @@ PerformAuthentication(Port *port)
    {
        if (am_walsender)
            ereport(LOG,
-               (errmsg("replication connection authorized: user=%s",
-                       port->user_name)));
+                   (errmsg("replication connection authorized: user=%s",
+                           port->user_name)));
        else
            ereport(LOG,
                    (errmsg("connection authorized: user=%s database=%s",
@@ -639,9 +639,9 @@ InitPostgres(const char *in_dbname, Oid dboid, const char *username,
                 errmsg("remaining connection slots are reserved for non-replication superuser connections")));
 
    /*
-    * If walsender, we don't want to connect to any particular database.
-    * Just finish the backend startup by processing any options from the
-    * startup packet, and we're done.
+    * If walsender, we don't want to connect to any particular database. Just
+    * finish the backend startup by processing any options from the startup
+    * packet, and we're done.
     */
    if (am_walsender)
    {
index b1281778036a398cf4f31fafcf8a728ac742affb..234bb0cf6e839ec3ee8f270e41a9ff9f2181a612 100644 (file)
@@ -77,7 +77,7 @@ static int    cliplen(const char *str, int len, int limit);
 
 
 /*
- * Prepare for a future call to SetClientEncoding.  Success should mean
+ * Prepare for a future call to SetClientEncoding. Success should mean
  * that SetClientEncoding is guaranteed to succeed for this encoding request.
  *
  * (But note that success before backend_startup_complete does not guarantee
@@ -149,7 +149,7 @@ PrepareClientEncoding(int encoding)
 
        /*
         * We cannot yet remove any older entry for the same encoding pair,
-        * since it could still be in use.  SetClientEncoding will clean up.
+        * since it could still be in use.  SetClientEncoding will clean up.
         */
 
        return 0;               /* success */
@@ -218,8 +218,8 @@ SetClientEncoding(int encoding)
    /*
     * Search the cache for the entry previously prepared by
     * PrepareClientEncoding; if there isn't one, we lose.  While at it,
-    * release any duplicate entries so that repeated Prepare/Set cycles
-    * don't leak memory.
+    * release any duplicate entries so that repeated Prepare/Set cycles don't
+    * leak memory.
     */
    found = false;
    foreach(lc, ConvProcList)
@@ -591,7 +591,7 @@ pg_any_to_server(const char *s, int len, int encoding)
        return perform_default_encoding_conversion(s, len, true);
    else
        return (char *) pg_do_encoding_conversion(
-           (unsigned char *) s, len, encoding, DatabaseEncoding->encoding);
+            (unsigned char *) s, len, encoding, DatabaseEncoding->encoding);
 }
 
 /*
@@ -626,7 +626,7 @@ pg_server_to_any(const char *s, int len, int encoding)
        return perform_default_encoding_conversion(s, len, false);
    else
        return (char *) pg_do_encoding_conversion(
-           (unsigned char *) s, len, DatabaseEncoding->encoding, encoding);
+            (unsigned char *) s, len, DatabaseEncoding->encoding, encoding);
 }
 
 /*
index 5e4904aeb7fc8a34828358b68c41661365f573bd..738e2152ba8e98d689f2cdd7c5ca362c3dc3837d 100644 (file)
@@ -146,23 +146,23 @@ extern bool optimize_bounded_sort;
 static int GUC_check_errcode_value;
 
 /* global variables for check hook support */
-char   *GUC_check_errmsg_string;
-char   *GUC_check_errdetail_string;
-char   *GUC_check_errhint_string;
+char      *GUC_check_errmsg_string;
+char      *GUC_check_errdetail_string;
+char      *GUC_check_errhint_string;
 
 
 static void set_config_sourcefile(const char *name, char *sourcefile,
                      int sourceline);
-static bool call_bool_check_hook(struct config_bool *conf, bool *newval,
-                                void **extra, GucSource source, int elevel);
-static bool call_int_check_hook(struct config_int *conf, int *newval,
-                               void **extra, GucSource source, int elevel);
-static bool call_real_check_hook(struct config_real *conf, double *newval,
-                                void **extra, GucSource source, int elevel);
-static bool call_string_check_hook(struct config_string *conf, char **newval,
-                                  void **extra, GucSource source, int elevel);
-static bool call_enum_check_hook(struct config_enum *conf, int *newval,
-                                void **extra, GucSource source, int elevel);
+static bool call_bool_check_hook(struct config_bool * conf, bool *newval,
+                    void **extra, GucSource source, int elevel);
+static bool call_int_check_hook(struct config_int * conf, int *newval,
+                   void **extra, GucSource source, int elevel);
+static bool call_real_check_hook(struct config_real * conf, double *newval,
+                    void **extra, GucSource source, int elevel);
+static bool call_string_check_hook(struct config_string * conf, char **newval,
+                      void **extra, GucSource source, int elevel);
+static bool call_enum_check_hook(struct config_enum * conf, int *newval,
+                    void **extra, GucSource source, int elevel);
 
 static bool check_log_destination(char **newval, void **extra, GucSource source);
 static void assign_log_destination(const char *newval, void *extra);
@@ -1571,7 +1571,7 @@ static struct config_int ConfigureNamesInt[] =
            GUC_UNIT_S
        },
        &wal_receiver_status_interval,
-       10, 0, INT_MAX/1000,
+       10, 0, INT_MAX / 1000,
        NULL, NULL, NULL
    },
 
@@ -1878,7 +1878,7 @@ static struct config_int ConfigureNamesInt[] =
        {"max_pred_locks_per_transaction", PGC_POSTMASTER, LOCK_MANAGEMENT,
            gettext_noop("Sets the maximum number of predicate locks per transaction."),
            gettext_noop("The shared predicate lock table is sized on the assumption that "
-             "at most max_pred_locks_per_transaction * max_connections distinct "
+                        "at most max_pred_locks_per_transaction * max_connections distinct "
                         "objects will need to be locked at any one time.")
        },
        &max_predicate_locks_per_xact,
@@ -3165,9 +3165,10 @@ static struct config_enum ConfigureNamesEnum[] =
                         " the level, the fewer messages are sent.")
        },
        &trace_recovery_messages,
+
        /*
-        * client_message_level_options allows too many values, really,
-        * but it's not worth having a separate options array for this.
+        * client_message_level_options allows too many values, really, but
+        * it's not worth having a separate options array for this.
         */
        LOG, client_message_level_options,
        NULL, NULL, NULL
@@ -5100,8 +5101,8 @@ set_config_option(const char *name, const char *value,
            {
                /*
                 * Historically we've just silently ignored attempts to set
-                * PGC_INTERNAL variables from the config file.  Maybe it'd
-                * be better to use the prohibitValueChange logic for this?
+                * PGC_INTERNAL variables from the config file.  Maybe it'd be
+                * better to use the prohibitValueChange logic for this?
                 */
                return true;
            }
@@ -5559,8 +5560,8 @@ set_config_option(const char *name, const char *value,
                if (value)
                {
                    /*
-                    * The value passed by the caller could be transient,
-                    * so we always strdup it.
+                    * The value passed by the caller could be transient, so
+                    * we always strdup it.
                     */
                    newval = guc_strdup(elevel, value);
                    if (newval == NULL)
@@ -7922,7 +7923,7 @@ validate_option_array_item(const char *name, const char *value,
  * ERRCODE_INVALID_PARAMETER_VALUE SQLSTATE for check hook failures.
  *
  * Note that GUC_check_errmsg() etc are just macros that result in a direct
- * assignment to the associated variables.  That is ugly, but forced by the
+ * assignment to the associated variables. That is ugly, but forced by the
  * limitations of C's macro mechanisms.
  */
 void
@@ -7939,7 +7940,7 @@ GUC_check_errcode(int sqlerrcode)
  */
 
 static bool
-call_bool_check_hook(struct config_bool *conf, bool *newval, void **extra,
+call_bool_check_hook(struct config_bool * conf, bool *newval, void **extra,
                     GucSource source, int elevel)
 {
    /* Quick success if no hook */
@@ -7973,7 +7974,7 @@ call_bool_check_hook(struct config_bool *conf, bool *newval, void **extra,
 }
 
 static bool
-call_int_check_hook(struct config_int *conf, int *newval, void **extra,
+call_int_check_hook(struct config_int * conf, int *newval, void **extra,
                    GucSource source, int elevel)
 {
    /* Quick success if no hook */
@@ -8007,7 +8008,7 @@ call_int_check_hook(struct config_int *conf, int *newval, void **extra,
 }
 
 static bool
-call_real_check_hook(struct config_real *conf, double *newval, void **extra,
+call_real_check_hook(struct config_real * conf, double *newval, void **extra,
                     GucSource source, int elevel)
 {
    /* Quick success if no hook */
@@ -8041,7 +8042,7 @@ call_real_check_hook(struct config_real *conf, double *newval, void **extra,
 }
 
 static bool
-call_string_check_hook(struct config_string *conf, char **newval, void **extra,
+call_string_check_hook(struct config_string * conf, char **newval, void **extra,
                       GucSource source, int elevel)
 {
    /* Quick success if no hook */
@@ -8075,7 +8076,7 @@ call_string_check_hook(struct config_string *conf, char **newval, void **extra,
 }
 
 static bool
-call_enum_check_hook(struct config_enum *conf, int *newval, void **extra,
+call_enum_check_hook(struct config_enum * conf, int *newval, void **extra,
                     GucSource source, int elevel)
 {
    /* Quick success if no hook */
@@ -8365,9 +8366,9 @@ static bool
 check_canonical_path(char **newval, void **extra, GucSource source)
 {
    /*
-    * Since canonicalize_path never enlarges the string, we can just
-    * modify newval in-place.  But watch out for NULL, which is the
-    * default value for external_pid_file.
+    * Since canonicalize_path never enlarges the string, we can just modify
+    * newval in-place.  But watch out for NULL, which is the default value
+    * for external_pid_file.
     */
    if (*newval)
        canonicalize_path(*newval);
@@ -8378,12 +8379,12 @@ static bool
 check_timezone_abbreviations(char **newval, void **extra, GucSource source)
 {
    /*
-    * The boot_val given above for timezone_abbreviations is NULL.
-    * When we see this we just do nothing.  If this value isn't overridden
-    * from the config file then pg_timezone_abbrev_initialize() will
-    * eventually replace it with "Default".  This hack has two purposes: to
-    * avoid wasting cycles loading values that might soon be overridden from
-    * the config file, and to avoid trying to read the timezone abbrev files
+    * The boot_val given above for timezone_abbreviations is NULL. When we
+    * see this we just do nothing.  If this value isn't overridden from the
+    * config file then pg_timezone_abbrev_initialize() will eventually
+    * replace it with "Default".  This hack has two purposes: to avoid
+    * wasting cycles loading values that might soon be overridden from the
+    * config file, and to avoid trying to read the timezone abbrev files
     * during InitializeGUCOptions().  The latter doesn't work in an
     * EXEC_BACKEND subprocess because my_exec_path hasn't been set yet and so
     * we can't locate PGSHAREDIR.
@@ -8443,15 +8444,15 @@ static void
 assign_tcp_keepalives_idle(int newval, void *extra)
 {
    /*
-    * The kernel API provides no way to test a value without setting it;
-    * and once we set it we might fail to unset it.  So there seems little
-    * point in fully implementing the check-then-assign GUC API for these
+    * The kernel API provides no way to test a value without setting it; and
+    * once we set it we might fail to unset it.  So there seems little point
+    * in fully implementing the check-then-assign GUC API for these
     * variables.  Instead we just do the assignment on demand.  pqcomm.c
     * reports any problems via elog(LOG).
     *
-    * This approach means that the GUC value might have little to do with
-    * the actual kernel value, so we use a show_hook that retrieves the
-    * kernel value rather than trusting GUC's copy.
+    * This approach means that the GUC value might have little to do with the
+    * actual kernel value, so we use a show_hook that retrieves the kernel
+    * value rather than trusting GUC's copy.
     */
    (void) pq_setkeepalivesidle(newval, MyProcPort);
 }
@@ -8574,7 +8575,7 @@ check_effective_io_concurrency(int *newval, void **extra, GucSource source)
    /* This range check shouldn't fail, but let's be paranoid */
    if (new_prefetch_pages >= 0.0 && new_prefetch_pages < (double) INT_MAX)
    {
-       int    *myextra = (int *) guc_malloc(ERROR, sizeof(int));
+       int        *myextra = (int *) guc_malloc(ERROR, sizeof(int));
 
        *myextra = (int) rint(new_prefetch_pages);
        *extra = (void *) myextra;
index 7a8ddf0a17efa078fb10a915f9bc954cce48ba3e..f8143724d0a843a2052eae5d6663883875a9ba81 100644 (file)
@@ -75,7 +75,7 @@ struct RBTree
  */
 #define RBNIL (&sentinel)
 
-static RBNode  sentinel = {InitialState, RBBLACK, RBNIL, RBNIL, NULL};
+static RBNode sentinel = {InitialState, RBBLACK, RBNIL, RBNIL, NULL};
 
 
 /*
@@ -99,10 +99,10 @@ static RBNode   sentinel = {InitialState, RBBLACK, RBNIL, RBNIL, NULL};
  *
  * The freefunc should just be pfree or equivalent; it should NOT attempt
  * to free any subsidiary data, because the node passed to it may not contain
- * valid data!  freefunc can be NULL if caller doesn't require retail
+ * valid data! freefunc can be NULL if caller doesn't require retail
  * space reclamation.
  *
- * The RBTree node is palloc'd in the caller's memory context.  Note that
+ * The RBTree node is palloc'd in the caller's memory context. Note that
  * all contents of the tree are actually allocated by the caller, not here.
  *
  * Since tree contents are managed by the caller, there is currently not
@@ -130,6 +130,7 @@ rb_create(Size node_size,
    tree->combiner = combiner;
    tree->allocfunc = allocfunc;
    tree->freefunc = freefunc;
+
    tree->arg = arg;
 
    return tree;
@@ -161,7 +162,7 @@ rb_find(RBTree *rb, const RBNode *data)
 
    while (node != RBNIL)
    {
-       int     cmp = rb->comparator(data, node, rb->arg);
+       int         cmp = rb->comparator(data, node, rb->arg);
 
        if (cmp == 0)
            return node;
@@ -434,10 +435,11 @@ rb_insert(RBTree *rb, const RBNode *data, bool *isNew)
     */
    *isNew = true;
 
-   x = rb->allocfunc(rb->arg);
+   x = rb->allocfunc (rb->arg);
 
    x->iteratorState = InitialState;
    x->color = RBRED;
+
    x->left = RBNIL;
    x->right = RBNIL;
    x->parent = parent;
@@ -629,7 +631,7 @@ rb_delete_node(RBTree *rb, RBNode *z)
 
    /* Now we can recycle the y node */
    if (rb->freefunc)
-       rb->freefunc(y, rb->arg);
+       rb->freefunc (y, rb->arg);
 }
 
 /*
index b2f6dd3a2bbdaf189b61e40e93e14227cde01061..b52942db7211f748341242f0e6b65e8c0d004439 100644 (file)
@@ -4,7 +4,7 @@
  *   Functions for parsing timezone offset files
  *
  * Note: this code is invoked from the check_hook for the GUC variable
- * timezone_abbreviations.  Therefore, it should report problems using
+ * timezone_abbreviations. Therefore, it should report problems using
  * GUC_check_errmsg() and related functions, and try to avoid throwing
  * elog(ERROR).  This is not completely bulletproof at present --- in
  * particular out-of-memory will throw an error.  Could probably fix with
index b28dc4742030c70822d7b34d6daf0098b6da35d1..e95dcb6b7cf8ca2dea607957331aa524abd029a3 100644 (file)
@@ -165,7 +165,7 @@ typedef struct AllocBlockData
    AllocBlock  next;           /* next block in aset's blocks list */
    char       *freeptr;        /* start of free space in this block */
    char       *endptr;         /* end of space in this block */
-} AllocBlockData;
+}  AllocBlockData;
 
 /*
  * AllocChunk
@@ -184,7 +184,7 @@ typedef struct AllocChunkData
    /* this is zero in a free chunk */
    Size        requested_size;
 #endif
-} AllocChunkData;
+}  AllocChunkData;
 
 /*
  * AllocPointerIsValid
index 7fa66b422122bc8790a41e5bf46fdb732c0a30c2..186548dcba5ee16703801e474830d1d5d35cb257 100644 (file)
@@ -413,8 +413,8 @@ MarkPortalDone(Portal portal)
    portal->status = PORTAL_DONE;
 
    /*
-    * Allow portalcmds.c to clean up the state it knows about.  We might
-    * as well do that now, since the portal can't be executed any more.
+    * Allow portalcmds.c to clean up the state it knows about.  We might as
+    * well do that now, since the portal can't be executed any more.
     *
     * In some cases involving execution of a ROLLBACK command in an already
     * aborted transaction, this prevents an assertion failure from reaching
@@ -449,7 +449,7 @@ PortalDrop(Portal portal, bool isTopCommit)
 
    /*
     * Allow portalcmds.c to clean up the state it knows about, in particular
-    * shutting down the executor if still active.  This step potentially runs
+    * shutting down the executor if still active.  This step potentially runs
     * user-defined code so failure has to be expected.  It's the cleanup
     * hook's responsibility to not try to do that more than once, in the case
     * that failure occurs and then we come back to drop the portal again
@@ -577,7 +577,7 @@ PortalHashTableDeleteAll(void)
  * Holdable cursors created in this transaction need to be converted to
  * materialized form, since we are going to close down the executor and
  * release locks.  Non-holdable portals created in this transaction are
- * simply removed.  Portals remaining from prior transactions should be
+ * simply removed. Portals remaining from prior transactions should be
  * left untouched.
  *
  * Returns TRUE if any portals changed state (possibly causing user-defined
@@ -678,9 +678,9 @@ PreCommit_Portals(bool isPrepare)
        }
 
        /*
-        * After either freezing or dropping a portal, we have to restart
-        * the iteration, because we could have invoked user-defined code
-        * that caused a drop of the next portal in the hash chain.
+        * After either freezing or dropping a portal, we have to restart the
+        * iteration, because we could have invoked user-defined code that
+        * caused a drop of the next portal in the hash chain.
         */
        hash_seq_term(&status);
        hash_seq_init(&status, PortalHashTable);
index c1ba5ad8e64aa708ce9c0663231f679d7e14a6b7..e5461e660ef561e5bfba239f5825887353cde65a 100644 (file)
@@ -78,7 +78,7 @@ typedef struct ResourceOwnerData
    int         nfiles;         /* number of owned temporary files */
    File       *files;          /* dynamically allocated array */
    int         maxfiles;       /* currently allocated array size */
-} ResourceOwnerData;
+}  ResourceOwnerData;
 
 
 /*****************************************************************************
index a1850b83c5e3a1e8452e0fe9bd4fa425baf74a85..bd5b4b0a7d7d22ebd5693c8df7fc84cd20f4e704 100644 (file)
@@ -351,7 +351,7 @@ struct Tuplesortstate
     * indexScanKey.
     */
    IndexInfo  *indexInfo;      /* info about index being used for reference */
-   EState     *estate;         /* for evaluating index expressions */
+   EState     *estate;         /* for evaluating index expressions */
 
    /*
     * These variables are specific to the IndexTuple case; they are set by
@@ -469,12 +469,12 @@ static void readtup_heap(Tuplesortstate *state, SortTuple *stup,
             int tapenum, unsigned int len);
 static void reversedirection_heap(Tuplesortstate *state);
 static int comparetup_cluster(const SortTuple *a, const SortTuple *b,
-                             Tuplesortstate *state);
+                  Tuplesortstate *state);
 static void copytup_cluster(Tuplesortstate *state, SortTuple *stup, void *tup);
 static void writetup_cluster(Tuplesortstate *state, int tapenum,
-                            SortTuple *stup);
+                SortTuple *stup);
 static void readtup_cluster(Tuplesortstate *state, SortTuple *stup,
-                           int tapenum, unsigned int len);
+               int tapenum, unsigned int len);
 static int comparetup_index_btree(const SortTuple *a, const SortTuple *b,
                       Tuplesortstate *state);
 static int comparetup_index_hash(const SortTuple *a, const SortTuple *b,
@@ -582,7 +582,7 @@ tuplesort_begin_common(int workMem, bool randomAccess)
 Tuplesortstate *
 tuplesort_begin_heap(TupleDesc tupDesc,
                     int nkeys, AttrNumber *attNums,
-                    Oid *sortOperators, Oid *collations, bool *nullsFirstFlags,
+                 Oid *sortOperators, Oid *collations, bool *nullsFirstFlags,
                     int workMem, bool randomAccess)
 {
    Tuplesortstate *state = tuplesort_begin_common(workMem, randomAccess);
@@ -699,7 +699,7 @@ tuplesort_begin_cluster(TupleDesc tupDesc,
    if (state->indexInfo->ii_Expressions != NULL)
    {
        TupleTableSlot *slot;
-       ExprContext    *econtext;
+       ExprContext *econtext;
 
        /*
         * We will need to use FormIndexDatum to evaluate the index
@@ -796,7 +796,7 @@ tuplesort_begin_index_hash(Relation indexRel,
 
 Tuplesortstate *
 tuplesort_begin_datum(Oid datumType,
-                     Oid sortOperator, Oid sortCollation, bool nullsFirstFlag,
+                   Oid sortOperator, Oid sortCollation, bool nullsFirstFlag,
                      int workMem, bool randomAccess)
 {
    Tuplesortstate *state = tuplesort_begin_common(workMem, randomAccess);
@@ -945,7 +945,7 @@ tuplesort_end(Tuplesortstate *state)
    /* Free any execution state created for CLUSTER case */
    if (state->estate != NULL)
    {
-       ExprContext    *econtext = GetPerTupleExprContext(state->estate);
+       ExprContext *econtext = GetPerTupleExprContext(state->estate);
 
        ExecDropSingleTupleTableSlot(econtext->ecxt_scantuple);
        FreeExecutorState(state->estate);
@@ -1546,7 +1546,7 @@ tuplesort_gettupleslot(Tuplesortstate *state, bool forward,
 
 /*
  * Fetch the next tuple in either forward or back direction.
- * Returns NULL if no more tuples.  If *should_free is set, the
+ * Returns NULL if no more tuples. If *should_free is set, the
  * caller must pfree the returned tuple when done with it.
  */
 HeapTuple
index 9100c818f8945e2b8e0ad4370d0d77309bf69a63..ef66466baf17e6825d9d04c8bb5918aa4e59eaf6 100644 (file)
@@ -41,7 +41,7 @@
  * CurrentSnapshot points to the only snapshot taken in transaction-snapshot
  * mode, and to the latest one taken in a read-committed transaction.
  * SecondarySnapshot is a snapshot that's always up-to-date as of the current
- * instant, even in transaction-snapshot mode.  It should only be used for
+ * instant, even in transaction-snapshot mode. It should only be used for
  * special-purpose code (say, RI checking.)
  *
  * These SnapshotData structs are static to simplify memory allocation
@@ -533,8 +533,8 @@ void
 AtEarlyCommit_Snapshot(void)
 {
    /*
-    * In transaction-snapshot mode we must unregister our private refcount
-    * to the transaction-snapshot.
+    * In transaction-snapshot mode we must unregister our private refcount to
+    * the transaction-snapshot.
     */
    if (registered_xact_snapshot)
        UnregisterSnapshotFromOwner(CurrentSnapshot,
index e87edb88a90c54bca8b70775d18d5f565171e3f4..fd1f20ee862abd886be7b033939b41bab267f11e 100644 (file)
@@ -230,7 +230,7 @@ do { \
 
 #define PG_CMD_PRINTF3(fmt, arg1, arg2, arg3)      \
 do { \
-   if (fprintf(cmdfd, fmt, arg1, arg2, arg3) < 0 || fflush(cmdfd) < 0) \
+   if (fprintf(cmdfd, fmt, arg1, arg2, arg3) < 0 || fflush(cmdfd) < 0) \
        output_failed = true, output_errno = errno; \
 } while (0)
 
@@ -1503,7 +1503,7 @@ setup_description(void)
    /* Create default descriptions for operator implementation functions */
    PG_CMD_PUTS("WITH funcdescs AS ( "
                "SELECT p.oid as p_oid, oprname, "
-               "coalesce(obj_description(o.oid, 'pg_operator'),'') as opdesc "
+             "coalesce(obj_description(o.oid, 'pg_operator'),'') as opdesc "
                "FROM pg_proc p JOIN pg_operator o ON oprcode = p.oid ) "
                "INSERT INTO pg_description "
                "  SELECT p_oid, 'pg_proc'::regclass, 0, "
@@ -1511,7 +1511,7 @@ setup_description(void)
                "  FROM funcdescs "
                "  WHERE opdesc NOT LIKE 'deprecated%' AND "
                "  NOT EXISTS (SELECT 1 FROM pg_description "
-                "    WHERE objoid = p_oid AND classoid = 'pg_proc'::regclass);\n");
+         "    WHERE objoid = p_oid AND classoid = 'pg_proc'::regclass);\n");
 
    PG_CMD_CLOSE;
 
@@ -1528,9 +1528,9 @@ setup_description(void)
 static bool
 normalize_locale_name(char *new, const char *old)
 {
-   char   *n = new;
+   char       *n = new;
    const char *o = old;
-   bool    changed = false;
+   bool        changed = false;
 
    while (*o)
    {
@@ -1552,7 +1552,7 @@ normalize_locale_name(char *new, const char *old)
 
    return changed;
 }
-#endif /* HAVE_LOCALE_T */
+#endif   /* HAVE_LOCALE_T */
 
 /*
  * populate pg_collation
@@ -1561,10 +1561,11 @@ static void
 setup_collation(void)
 {
 #ifdef HAVE_LOCALE_T
-   int i;
-   FILE   *locale_a_handle;
-   char    localebuf[NAMEDATALEN];
-   int     count = 0;
+   int         i;
+   FILE       *locale_a_handle;
+   char        localebuf[NAMEDATALEN];
+   int         count = 0;
+
    PG_CMD_DECL;
 #endif
 
@@ -1590,10 +1591,10 @@ setup_collation(void)
 
    while (fgets(localebuf, sizeof(localebuf), locale_a_handle))
    {
-       size_t  len;
-       int     enc;
-       bool    skip;
-       char    alias[NAMEDATALEN];
+       size_t      len;
+       int         enc;
+       bool        skip;
+       char        alias[NAMEDATALEN];
 
        len = strlen(localebuf);
 
@@ -1607,11 +1608,11 @@ setup_collation(void)
        localebuf[len - 1] = '\0';
 
        /*
-        * Some systems have locale names that don't consist entirely
-        * of ASCII letters (such as "bokm&aring;l" or
-        * "fran&ccedil;ais").  This is pretty silly, since we need
-        * the locale itself to interpret the non-ASCII characters.
-        * We can't do much with those, so we filter them out.
+        * Some systems have locale names that don't consist entirely of ASCII
+        * letters (such as "bokm&aring;l" or "fran&ccedil;ais").  This is
+        * pretty silly, since we need the locale itself to interpret the
+        * non-ASCII characters. We can't do much with those, so we filter
+        * them out.
         */
        skip = false;
        for (i = 0; i < len; i++)
@@ -1647,30 +1648,28 @@ setup_collation(void)
                       escape_quotes(localebuf), enc);
 
        /*
-        * Generate aliases such as "en_US" in addition to
-        * "en_US.utf8" for ease of use.  Note that collation names
-        * are unique per encoding only, so this doesn't clash with
-        * "en_US" for LATIN1, say.
+        * Generate aliases such as "en_US" in addition to "en_US.utf8" for
+        * ease of use.  Note that collation names are unique per encoding
+        * only, so this doesn't clash with "en_US" for LATIN1, say.
         */
        if (normalize_locale_name(alias, localebuf))
            PG_CMD_PRINTF3("INSERT INTO tmp_pg_collation (collname, locale, encoding) VALUES ('%s', '%s', %d);\n",
-                          escape_quotes(alias), escape_quotes(localebuf), enc);
+                       escape_quotes(alias), escape_quotes(localebuf), enc);
    }
 
    /* Add an SQL-standard name */
    PG_CMD_PRINTF1("INSERT INTO tmp_pg_collation (collname, locale, encoding) VALUES ('ucs_basic', 'C', %d);\n", PG_UTF8);
 
    /*
-    * When copying collations to the final location, eliminate
-    * aliases that conflict with an existing locale name for the same
-    * encoding.  For example, "br_FR.iso88591" is normalized to
-    * "br_FR", both for encoding LATIN1.  But the unnormalized locale
-    * "br_FR" already exists for LATIN1.  Prefer the collation that
-    * matches the OS locale name, else the first name by sort order
-    * (arbitrary choice to be deterministic).
+    * When copying collations to the final location, eliminate aliases that
+    * conflict with an existing locale name for the same encoding.  For
+    * example, "br_FR.iso88591" is normalized to "br_FR", both for encoding
+    * LATIN1.  But the unnormalized locale "br_FR" already exists for LATIN1.
+    * Prefer the collation that matches the OS locale name, else the first
+    * name by sort order (arbitrary choice to be deterministic).
     */
    PG_CMD_PUTS("INSERT INTO pg_collation (collname, collnamespace, collowner, collencoding, collcollate, collctype) "
-               " SELECT DISTINCT ON (final_collname, collnamespace, encoding)"
+             " SELECT DISTINCT ON (final_collname, collnamespace, encoding)"
                "   COALESCE(collname, locale) AS final_collname, "
                "   (SELECT oid FROM pg_namespace WHERE nspname = 'pg_catalog') AS collnamespace, "
                "   (SELECT relowner FROM pg_class WHERE relname = 'pg_collation') AS collowner, "
@@ -1687,10 +1686,10 @@ setup_collation(void)
        printf(_("No usable system locales were found.\n"));
        printf(_("Use the option \"--debug\" to see details.\n"));
    }
-#else /* not HAVE_LOCALE_T */
+#else                          /* not HAVE_LOCALE_T */
    printf(_("not supported on this platform\n"));
    fflush(stdout);
-#endif /* not HAVE_LOCALE_T */
+#endif   /* not HAVE_LOCALE_T */
 }
 
 /*
index 9f926bd2423613534656a546e8e6f14d8f5e2e77..aeec8136c4a02dbfaf8ccf8abb3007ac487df096 100644 (file)
@@ -129,7 +129,7 @@ usage(void)
    printf(_("  -Z, --compress=0-9        compress tar output\n"));
    printf(_("\nGeneral options:\n"));
    printf(_("  -c, --checkpoint=fast|spread\n"
-            "                            set fast or spread checkpointing\n"));
+         "                            set fast or spread checkpointing\n"));
    printf(_("  -l, --label=label         set backup label\n"));
    printf(_("  -P, --progress            show progress information\n"));
    printf(_("  -v, --verbose             output verbose messages\n"));
@@ -202,7 +202,8 @@ verify_dir_is_empty_or_create(char *dirname)
 static void
 progress_report(int tablespacenum, char *fn)
 {
-   int percent = (int) ((totaldone / 1024) * 100 / totalsize);
+   int         percent = (int) ((totaldone / 1024) * 100 / totalsize);
+
    if (percent > 100)
        percent = 100;
 
@@ -502,7 +503,7 @@ ReceiveAndUnpackTarFile(PGconn *conn, PGresult *res, int rownum)
 
        if (file == NULL)
        {
-           int     filemode;
+           int         filemode;
 
            /*
             * No current file, so this must be the header for a new file
@@ -795,7 +796,7 @@ BaseBackup(void)
             showprogress ? "PROGRESS" : "",
             includewal ? "WAL" : "",
             fastcheckpoint ? "FAST" : "",
-            includewal ? "NOWAIT" : "");
+            includewal ? "NOWAIT" : "");
 
    if (PQsendQuery(conn, current_path) == 0)
    {
@@ -896,7 +897,7 @@ BaseBackup(void)
    if (PQresultStatus(res) != PGRES_TUPLES_OK)
    {
        fprintf(stderr, _("%s: could not get end xlog position from server.\n"),
-                         progname);
+               progname);
        disconnect_and_exit(1);
    }
    if (PQntuples(res) != 1)
index e553c9b9d4b8e9eb83f3c38faf5d5ef8767ce743..4e8d0b1d393ca779ddccada7f8b121328d544180 100644 (file)
@@ -416,7 +416,7 @@ test_postmaster_connection(bool do_checkpoint)
    int         i;
 
    connstr[0] = '\0';
-   
+
    for (i = 0; i < wait_seconds; i++)
    {
        /* Do we need a connection string? */
@@ -433,7 +433,7 @@ test_postmaster_connection(bool do_checkpoint)
             *      6   9.1+ server, shared memory not created
             *      7   9.1+ server, shared memory created
             *
-            * This code does not support pre-9.1 servers.  On Unix machines
+            * This code does not support pre-9.1 servers.  On Unix machines
             * we could consider extracting the port number from the shmem
             * key, but that (a) is not robust, and (b) doesn't help with
             * finding out the socket directory.  And it wouldn't work anyway
@@ -462,11 +462,11 @@ test_postmaster_connection(bool do_checkpoint)
                         optlines[5] != NULL)
                {
                    /* File is complete enough for us, parse it */
-                   time_t  pmstart;
-                   int     portnum;
-                   char   *sockdir;
-                   char   *hostaddr;
-                   char    host_str[MAXPGPATH];
+                   time_t      pmstart;
+                   int         portnum;
+                   char       *sockdir;
+                   char       *hostaddr;
+                   char        host_str[MAXPGPATH];
 
                    /*
                     * Easy cross-check that we are looking at the right data
@@ -483,8 +483,8 @@ test_postmaster_connection(bool do_checkpoint)
                    }
 
                    /*
-                    * OK, extract port number and host string to use.
-                    * Prefer using Unix socket if available.
+                    * OK, extract port number and host string to use. Prefer
+                    * using Unix socket if available.
                     */
                    portnum = atoi(optlines[LOCK_FILE_LINE_PORT - 1]);
 
@@ -524,7 +524,7 @@ test_postmaster_connection(bool do_checkpoint)
                     * first.
                     */
                    snprintf(connstr, sizeof(connstr),
-                            "dbname=postgres port=%d host='%s' connect_timeout=5",
+                      "dbname=postgres port=%d host='%s' connect_timeout=5",
                             portnum, host_str);
                }
            }
@@ -543,11 +543,10 @@ test_postmaster_connection(bool do_checkpoint)
        if (do_checkpoint)
        {
            /*
-            * Increment the wait hint by 6 secs (connection timeout +
-            * sleep) We must do this to indicate to the SCM that our
-            * startup time is changing, otherwise it'll usually send a
-            * stop signal after 20 seconds, despite incrementing the
-            * checkpoint counter.
+            * Increment the wait hint by 6 secs (connection timeout + sleep)
+            * We must do this to indicate to the SCM that our startup time is
+            * changing, otherwise it'll usually send a stop signal after 20
+            * seconds, despite incrementing the checkpoint counter.
             */
            status.dwWaitHint += 6000;
            status.dwCheckPoint++;
@@ -557,7 +556,7 @@ test_postmaster_connection(bool do_checkpoint)
 #endif
            print_msg(".");
 
-       pg_usleep(1000000); /* 1 sec */
+       pg_usleep(1000000);     /* 1 sec */
    }
 
    /* return result of last call to PQping */
@@ -834,8 +833,8 @@ do_stop(void)
    else
    {
        /*
-        * If backup_label exists, an online backup is running. Warn the
-        * user that smart shutdown will wait for it to finish. However, if
+        * If backup_label exists, an online backup is running. Warn the user
+        * that smart shutdown will wait for it to finish. However, if
         * recovery.conf is also present, we're recovering from an online
         * backup instead of performing one.
         */
@@ -867,7 +866,7 @@ do_stop(void)
            write_stderr(_("%s: server does not shut down\n"), progname);
            if (shutdown_mode == SMART_MODE)
                write_stderr(_("HINT: The \"-m fast\" option immediately disconnects sessions rather than\n"
-                           "waiting for session-initiated disconnection.\n"));
+                         "waiting for session-initiated disconnection.\n"));
            exit(1);
        }
        print_msg(_(" done\n"));
@@ -922,8 +921,8 @@ do_restart(void)
        }
 
        /*
-        * If backup_label exists, an online backup is running. Warn the
-        * user that smart shutdown will wait for it to finish. However, if
+        * If backup_label exists, an online backup is running. Warn the user
+        * that smart shutdown will wait for it to finish. However, if
         * recovery.conf is also present, we're recovering from an online
         * backup instead of performing one.
         */
@@ -957,7 +956,7 @@ do_restart(void)
            write_stderr(_("%s: server does not shut down\n"), progname);
            if (shutdown_mode == SMART_MODE)
                write_stderr(_("HINT: The \"-m fast\" option immediately disconnects sessions rather than\n"
-                           "waiting for session-initiated disconnection.\n"));
+                         "waiting for session-initiated disconnection.\n"));
            exit(1);
        }
 
@@ -1259,7 +1258,7 @@ pgwin32_doRegister(void)
    }
 
    if ((hService = CreateService(hSCM, register_servicename, register_servicename,
-                                 SERVICE_ALL_ACCESS, SERVICE_WIN32_OWN_PROCESS,
+                              SERVICE_ALL_ACCESS, SERVICE_WIN32_OWN_PROCESS,
                                  pgctl_start_type, SERVICE_ERROR_NORMAL,
                                  pgwin32_CommandLine(true),
       NULL, NULL, "RPCSS\0", register_username, register_password)) == NULL)
@@ -1700,7 +1699,7 @@ do_help(void)
    printf(_("  %s kill    SIGNALNAME PID\n"), progname);
 #if defined(WIN32) || defined(__CYGWIN__)
    printf(_("  %s register   [-N SERVICENAME] [-U USERNAME] [-P PASSWORD] [-D DATADIR]\n"
-        "                    [-S START-TYPE] [-w] [-t SECS] [-o \"OPTIONS\"]\n"), progname);
+            "                    [-S START-TYPE] [-w] [-t SECS] [-o \"OPTIONS\"]\n"), progname);
    printf(_("  %s unregister [-N SERVICENAME]\n"), progname);
 #endif
 
index fb280ab672ff64b571353e4a082c59bb330cd459..66d2419725348c1b2895a7e3d65d7ed2ab87cc02 100644 (file)
@@ -1,8 +1,8 @@
 /*-------------------------------------------------------------------------
  *
  * compress_io.c
- *   Routines for archivers to write an uncompressed or compressed data
- *   stream.
+ *  Routines for archivers to write an uncompressed or compressed data
+ *  stream.
  *
  * Portions Copyright (c) 1996-2011, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  * Compressor API
  * --------------
  *
- *  The interface for writing to an archive consists of three functions:
- *  AllocateCompressor, WriteDataToArchive and EndCompressor. First you call
- *  AllocateCompressor, then write all the data by calling WriteDataToArchive
- *  as many times as needed, and finally EndCompressor. WriteDataToArchive
- *  and EndCompressor will call the WriteFunc that was provided to
- *  AllocateCompressor for each chunk of compressed data.
+ * The interface for writing to an archive consists of three functions:
+ * AllocateCompressor, WriteDataToArchive and EndCompressor. First you call
+ * AllocateCompressor, then write all the data by calling WriteDataToArchive
+ * as many times as needed, and finally EndCompressor. WriteDataToArchive
+ * and EndCompressor will call the WriteFunc that was provided to
+ * AllocateCompressor for each chunk of compressed data.
  *
- *  The interface for reading an archive consists of just one function:
- *  ReadDataFromArchive. ReadDataFromArchive reads the whole compressed input
- *  stream, by repeatedly calling the given ReadFunc. ReadFunc returns the
- *  compressed data chunk at a time, and ReadDataFromArchive decompresses it
- *  and passes the decompressed data to ahwrite(), until ReadFunc returns 0
- *  to signal EOF.
+ * The interface for reading an archive consists of just one function:
+ * ReadDataFromArchive. ReadDataFromArchive reads the whole compressed input
+ * stream, by repeatedly calling the given ReadFunc. ReadFunc returns the
+ * compressed data chunk at a time, and ReadDataFromArchive decompresses it
+ * and passes the decompressed data to ahwrite(), until ReadFunc returns 0
+ * to signal EOF.
  *
- *  The interface is the same for compressed and uncompressed streams.
+ * The interface is the same for compressed and uncompressed streams.
  *
  * Compressed stream API
  * ----------------------
  *
- *  The compressed stream API is a wrapper around the C standard fopen() and
- *  libz's gzopen() APIs. It allows you to use the same functions for
- *  compressed and uncompressed streams. cfopen_read() first tries to open
- *  the file with given name, and if it fails, it tries to open the same
- *  file with the .gz suffix. cfopen_write() opens a file for writing, an
- *  extra argument specifies if the file should be compressed, and adds the
- *  .gz suffix to the filename if so. This allows you to easily handle both
- *  compressed and uncompressed files.
+ * The compressed stream API is a wrapper around the C standard fopen() and
+ * libz's gzopen() APIs. It allows you to use the same functions for
+ * compressed and uncompressed streams. cfopen_read() first tries to open
+ * the file with given name, and if it fails, it tries to open the same
+ * file with the .gz suffix. cfopen_write() opens a file for writing, an
+ * extra argument specifies if the file should be compressed, and adds the
+ * .gz suffix to the filename if so. This allows you to easily handle both
+ * compressed and uncompressed files.
  *
  * IDENTIFICATION
- *     src/bin/pg_dump/compress_io.c
+ *    src/bin/pg_dump/compress_io.c
  *
  *-------------------------------------------------------------------------
  */
 struct CompressorState
 {
    CompressionAlgorithm comprAlg;
-   WriteFunc           writeF;
+   WriteFunc   writeF;
 
 #ifdef HAVE_LIBZ
-   z_streamp           zp;
-   char               *zlibOut;
-   size_t              zlibOutSize;
+   z_streamp   zp;
+   char       *zlibOut;
+   size_t      zlibOutSize;
 #endif
 };
 
 static const char *modulename = gettext_noop("compress_io");
 
 static void ParseCompressionOption(int compression, CompressionAlgorithm *alg,
-                                  int *level);
+                      int *level);
 
 /* Routines that support zlib compressed data I/O */
 #ifdef HAVE_LIBZ
 static void InitCompressorZlib(CompressorState *cs, int level);
 static void DeflateCompressorZlib(ArchiveHandle *AH, CompressorState *cs,
-                                 bool flush);
+                     bool flush);
 static void ReadDataFromArchiveZlib(ArchiveHandle *AH, ReadFunc readF);
 static size_t WriteDataToArchiveZlib(ArchiveHandle *AH, CompressorState *cs,
-                                    const char *data, size_t dLen);
+                      const char *data, size_t dLen);
 static void EndCompressorZlib(ArchiveHandle *AH, CompressorState *cs);
-
 #endif
 
 /* Routines that support uncompressed data I/O */
 static void ReadDataFromArchiveNone(ArchiveHandle *AH, ReadFunc readF);
 static size_t WriteDataToArchiveNone(ArchiveHandle *AH, CompressorState *cs,
-                                    const char *data, size_t dLen);
+                      const char *data, size_t dLen);
 
 /*
  * Interprets a numeric 'compression' value. The algorithm implied by the
@@ -127,7 +126,7 @@ AllocateCompressor(int compression, WriteFunc writeF)
 {
    CompressorState *cs;
    CompressionAlgorithm alg;
-   int level;
+   int         level;
 
    ParseCompressionOption(compression, &alg, &level);
 
@@ -183,7 +182,7 @@ size_t
 WriteDataToArchive(ArchiveHandle *AH, CompressorState *cs,
                   const void *data, size_t dLen)
 {
-   switch(cs->comprAlg)
+   switch (cs->comprAlg)
    {
        case COMPR_ALG_LIBZ:
 #ifdef HAVE_LIBZ
@@ -194,7 +193,7 @@ WriteDataToArchive(ArchiveHandle *AH, CompressorState *cs,
        case COMPR_ALG_NONE:
            return WriteDataToArchiveNone(AH, cs, data, dLen);
    }
-   return 0; /* keep compiler quiet */
+   return 0;                   /* keep compiler quiet */
 }
 
 /*
@@ -220,7 +219,7 @@ EndCompressor(ArchiveHandle *AH, CompressorState *cs)
 static void
 InitCompressorZlib(CompressorState *cs, int level)
 {
-   z_streamp           zp;
+   z_streamp   zp;
 
    zp = cs->zp = (z_streamp) malloc(sizeof(z_stream));
    if (cs->zp == NULL)
@@ -230,9 +229,9 @@ InitCompressorZlib(CompressorState *cs, int level)
    zp->opaque = Z_NULL;
 
    /*
-    * zlibOutSize is the buffer size we tell zlib it can output
-    * to.  We actually allocate one extra byte because some routines
-    * want to append a trailing zero byte to the zlib output.
+    * zlibOutSize is the buffer size we tell zlib it can output to.  We
+    * actually allocate one extra byte because some routines want to append a
+    * trailing zero byte to the zlib output.
     */
    cs->zlibOut = (char *) malloc(ZLIB_OUT_SIZE + 1);
    cs->zlibOutSize = ZLIB_OUT_SIZE;
@@ -253,7 +252,7 @@ InitCompressorZlib(CompressorState *cs, int level)
 static void
 EndCompressorZlib(ArchiveHandle *AH, CompressorState *cs)
 {
-   z_streamp           zp = cs->zp;
+   z_streamp   zp = cs->zp;
 
    zp->next_in = NULL;
    zp->avail_in = 0;
@@ -295,10 +294,11 @@ DeflateCompressorZlib(ArchiveHandle *AH, CompressorState *cs, bool flush)
            if (zp->avail_out < cs->zlibOutSize)
            {
                /*
-                * Any write function shoud do its own error checking but
-                * to make sure we do a check here as well...
+                * Any write function shoud do its own error checking but to
+                * make sure we do a check here as well...
                 */
-               size_t len = cs->zlibOutSize - zp->avail_out;
+               size_t      len = cs->zlibOutSize - zp->avail_out;
+
                if (cs->writeF(AH, out, len) != len)
                    die_horribly(AH, modulename,
                                 "could not write to output file: %s\n",
@@ -320,8 +320,11 @@ WriteDataToArchiveZlib(ArchiveHandle *AH, CompressorState *cs,
    cs->zp->next_in = (void *) data;
    cs->zp->avail_in = dLen;
    DeflateCompressorZlib(AH, cs, false);
-   /* we have either succeeded in writing dLen bytes or we have called
-    * die_horribly() */
+
+   /*
+    * we have either succeeded in writing dLen bytes or we have called
+    * die_horribly()
+    */
    return dLen;
 }
 
@@ -400,8 +403,7 @@ ReadDataFromArchiveZlib(ArchiveHandle *AH, ReadFunc readF)
    free(out);
    free(zp);
 }
-
-#endif  /* HAVE_LIBZ */
+#endif   /* HAVE_LIBZ */
 
 
 /*
@@ -433,8 +435,8 @@ WriteDataToArchiveNone(ArchiveHandle *AH, CompressorState *cs,
                       const char *data, size_t dLen)
 {
    /*
-    * Any write function should do its own error checking but to make
-    * sure we do a check here as well...
+    * Any write function should do its own error checking but to make sure we
+    * do a check here as well...
     */
    if (cs->writeF(AH, data, dLen) != dLen)
        die_horribly(AH, modulename,
@@ -455,9 +457,9 @@ WriteDataToArchiveNone(ArchiveHandle *AH, CompressorState *cs,
  */
 struct cfp
 {
-   FILE *uncompressedfp;
+   FILE       *uncompressedfp;
 #ifdef HAVE_LIBZ
-   gzFile compressedfp;
+   gzFile      compressedfp;
 #endif
 };
 
@@ -476,7 +478,7 @@ static int  hasSuffix(const char *filename, const char *suffix);
 cfp *
 cfopen_read(const char *path, const char *mode)
 {
-   cfp *fp;
+   cfp        *fp;
 
 #ifdef HAVE_LIBZ
    if (hasSuffix(path, ".gz"))
@@ -488,8 +490,9 @@ cfopen_read(const char *path, const char *mode)
 #ifdef HAVE_LIBZ
        if (fp == NULL)
        {
-           int fnamelen = strlen(path) + 4;
-           char *fname = malloc(fnamelen);
+           int         fnamelen = strlen(path) + 4;
+           char       *fname = malloc(fnamelen);
+
            if (fname == NULL)
                die_horribly(NULL, modulename, "Out of memory\n");
 
@@ -514,15 +517,16 @@ cfopen_read(const char *path, const char *mode)
 cfp *
 cfopen_write(const char *path, const char *mode, int compression)
 {
-   cfp *fp;
+   cfp        *fp;
 
    if (compression == 0)
        fp = cfopen(path, mode, 0);
    else
    {
 #ifdef HAVE_LIBZ
-       int fnamelen = strlen(path) + 4;
-       char *fname = malloc(fnamelen);
+       int         fnamelen = strlen(path) + 4;
+       char       *fname = malloc(fnamelen);
+
        if (fname == NULL)
            die_horribly(NULL, modulename, "Out of memory\n");
 
@@ -543,7 +547,8 @@ cfopen_write(const char *path, const char *mode, int compression)
 cfp *
 cfopen(const char *path, const char *mode, int compression)
 {
-   cfp *fp = malloc(sizeof(cfp));
+   cfp        *fp = malloc(sizeof(cfp));
+
    if (fp == NULL)
        die_horribly(NULL, modulename, "Out of memory\n");
 
@@ -625,7 +630,7 @@ cfgets(cfp *fp, char *buf, int len)
 int
 cfclose(cfp *fp)
 {
-   int result;
+   int         result;
 
    if (fp == NULL)
    {
@@ -664,14 +669,15 @@ cfeof(cfp *fp)
 static int
 hasSuffix(const char *filename, const char *suffix)
 {
-   int filenamelen = strlen(filename);
-   int suffixlen = strlen(suffix);
+   int         filenamelen = strlen(filename);
+   int         suffixlen = strlen(suffix);
 
    if (filenamelen < suffixlen)
        return 0;
 
    return memcmp(&filename[filenamelen - suffixlen],
-                   suffix,
-                   suffixlen) == 0;
+                 suffix,
+                 suffixlen) == 0;
 }
+
 #endif
index 9963cef9fc1234ce91a824a96169be2023900c6c..f5908c0d7abe7ecc48aad7f0392bc9c8a81876e0 100644 (file)
@@ -1,13 +1,13 @@
 /*-------------------------------------------------------------------------
  *
  * compress_io.h
- *   Interface to compress_io.c routines
+ *  Interface to compress_io.c routines
  *
  * Portions Copyright (c) 1996-2011, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  * IDENTIFICATION
- *     src/bin/pg_dump/compress_io.h
+ *    src/bin/pg_dump/compress_io.h
  *
  *-------------------------------------------------------------------------
  */
@@ -29,7 +29,7 @@ typedef enum
 } CompressionAlgorithm;
 
 /* Prototype for callback function to WriteDataToArchive() */
-typedef size_t (*WriteFunc)(ArchiveHandle *AH, const char *buf, size_t len);
+typedef size_t (*WriteFunc) (ArchiveHandle *AH, const char *buf, size_t len);
 
 /*
  * Prototype for callback function to ReadDataFromArchive()
@@ -42,16 +42,16 @@ typedef size_t (*WriteFunc)(ArchiveHandle *AH, const char *buf, size_t len);
  *
  * Returns the number of bytes read into *buf, or 0 on EOF.
  */
-typedef size_t (*ReadFunc)(ArchiveHandle *AH, char **buf, size_t *buflen);
+typedef size_t (*ReadFunc) (ArchiveHandle *AH, char **buf, size_t *buflen);
 
 /* struct definition appears in compress_io.c */
 typedef struct CompressorState CompressorState;
 
 extern CompressorState *AllocateCompressor(int compression, WriteFunc writeF);
 extern void ReadDataFromArchive(ArchiveHandle *AH, int compression,
-                               ReadFunc readF);
+                   ReadFunc readF);
 extern size_t WriteDataToArchive(ArchiveHandle *AH, CompressorState *cs,
-                                const void *data, size_t dLen);
+                  const void *data, size_t dLen);
 extern void EndCompressor(ArchiveHandle *AH, CompressorState *cs);
 
 
@@ -60,11 +60,11 @@ typedef struct cfp cfp;
 extern cfp *cfopen(const char *path, const char *mode, int compression);
 extern cfp *cfopen_read(const char *path, const char *mode);
 extern cfp *cfopen_write(const char *path, const char *mode, int compression);
-extern int cfread(void *ptr, int size, cfp *fp);
-extern int cfwrite(const void *ptr, int size, cfp *fp);
-extern int cfgetc(cfp *fp);
+extern int cfread(void *ptr, int size, cfp *fp);
+extern int cfwrite(const void *ptr, int size, cfp *fp);
+extern int cfgetc(cfp *fp);
 extern char *cfgets(cfp *fp, char *buf, int len);
-extern int cfclose(cfp *fp);
-extern int cfeof(cfp *fp);
+extern int cfclose(cfp *fp);
+extern int cfeof(cfp *fp);
 
 #endif
index 0f814f142f275f8086d7e9317560046b131c32b8..6e5e625e6d0c27d9ce8f19e9e6fb36ba3d479f4f 100644 (file)
@@ -21,7 +21,7 @@
 #include "parser/keywords.h"
 
 
-int        quote_all_identifiers = 0;
+int            quote_all_identifiers = 0;
 
 
 #define supports_grant_options(version) ((version) >= 70400)
index 556883b229fc78f4600ad3dbaa7e13e439751445..44d90669b61655c51f44f363d33e057d2c1f088c 100644 (file)
@@ -19,7 +19,7 @@
 #include "libpq-fe.h"
 #include "pqexpbuffer.h"
 
-extern int quote_all_identifiers;
+extern int quote_all_identifiers;
 
 extern void init_parallel_dump_utils(void);
 extern const char *fmtId(const char *identifier);
index 7af3db5d64610b524753101966fe3f05b89ba224..7e1ce20745c20b48f2b48d4c04af580b17f78eef 100644 (file)
@@ -88,8 +88,8 @@ const char *progname;
 static const char *modulename = gettext_noop("archiver");
 
 /* index array created by fix_dependencies -- only used in parallel restore */
-static TocEntry      **tocsByDumpId;           /* index by dumpId - 1 */
-static DumpId      maxDumpId;              /* length of above array */
+static TocEntry **tocsByDumpId; /* index by dumpId - 1 */
+static DumpId maxDumpId;       /* length of above array */
 
 
 static ArchiveHandle *_allocAH(const char *FileSpec, const ArchiveFormat fmt,
@@ -1529,7 +1529,6 @@ _moveAfter(ArchiveHandle *AH, TocEntry *pos, TocEntry *te)
    pos->next->prev = te;
    pos->next = te;
 }
-
 #endif
 
 static void
@@ -1771,7 +1770,7 @@ _discoverArchiveFormat(ArchiveHandle *AH)
 
    if (AH->fSpec)
    {
-       struct stat st;
+       struct stat st;
 
        wantClose = 1;
 
@@ -1782,6 +1781,7 @@ _discoverArchiveFormat(ArchiveHandle *AH)
        if (stat(AH->fSpec, &st) == 0 && S_ISDIR(st.st_mode))
        {
            char        buf[MAXPGPATH];
+
            if (snprintf(buf, MAXPGPATH, "%s/toc.dat", AH->fSpec) >= MAXPGPATH)
                die_horribly(AH, modulename, "directory name too long: \"%s\"\n",
                             AH->fSpec);
@@ -1803,7 +1803,7 @@ _discoverArchiveFormat(ArchiveHandle *AH)
 #endif
            die_horribly(AH, modulename, "directory \"%s\" does not appear to be a valid archive (\"toc.dat\" does not exist)\n",
                         AH->fSpec);
-           fh = NULL; /* keep compiler quiet */
+           fh = NULL;          /* keep compiler quiet */
        }
        else
        {
@@ -3238,7 +3238,7 @@ dumpTimestamp(ArchiveHandle *AH, const char *msg, time_t tim)
  *
  * Work is done in three phases.
  * First we process all SECTION_PRE_DATA tocEntries, in a single connection,
- * just as for a standard restore.  Second we process the remaining non-ACL
+ * just as for a standard restore. Second we process the remaining non-ACL
  * steps in parallel worker children (threads on Windows, processes on Unix),
  * each of which connects separately to the database.  Finally we process all
  * the ACL entries in a single connection (that happens back in
@@ -3278,9 +3278,9 @@ restore_toc_entries_parallel(ArchiveHandle *AH)
     * Do all the early stuff in a single connection in the parent. There's no
     * great point in running it in parallel, in fact it will actually run
     * faster in a single connection because we avoid all the connection and
-    * setup overhead.  Also, pg_dump is not currently very good about
-    * showing all the dependencies of SECTION_PRE_DATA items, so we do not
-    * risk trying to process them out-of-order.
+    * setup overhead.  Also, pg_dump is not currently very good about showing
+    * all the dependencies of SECTION_PRE_DATA items, so we do not risk
+    * trying to process them out-of-order.
     */
    skipped_some = false;
    for (next_work_item = AH->toc->next; next_work_item != AH->toc; next_work_item = next_work_item->next)
@@ -3967,8 +3967,8 @@ fix_dependencies(ArchiveHandle *AH)
 
    /*
     * Count the incoming dependencies for each item.  Also, it is possible
-    * that the dependencies list items that are not in the archive at
-    * all.  Subtract such items from the depCounts.
+    * that the dependencies list items that are not in the archive at all.
+    * Subtract such items from the depCounts.
     */
    for (te = AH->toc->next; te != AH->toc; te = te->next)
    {
@@ -3984,8 +3984,8 @@ fix_dependencies(ArchiveHandle *AH)
    }
 
    /*
-    * Allocate space for revDeps[] arrays, and reset nRevDeps so we can
-    * use it as a counter below.
+    * Allocate space for revDeps[] arrays, and reset nRevDeps so we can use
+    * it as a counter below.
     */
    for (te = AH->toc->next; te != AH->toc; te = te->next)
    {
@@ -3995,8 +3995,8 @@ fix_dependencies(ArchiveHandle *AH)
    }
 
    /*
-    * Build the revDeps[] arrays of incoming-dependency dumpIds.  This
-    * had better agree with the loops above.
+    * Build the revDeps[] arrays of incoming-dependency dumpIds.  This had
+    * better agree with the loops above.
     */
    for (te = AH->toc->next; te != AH->toc; te = te->next)
    {
index 8d3bbe012cc769e3d5031fde1b488ac0fb8a5944..fd0b174b788f82ea351c91849f611fa33fe4787e 100644 (file)
@@ -261,11 +261,10 @@ typedef struct _archiveHandle
    DumpId      maxDumpId;      /* largest DumpId among all TOC entries */
 
    struct _tocEntry *currToc;  /* Used when dumping data */
-   int         compression;    /* Compression requested on open
-                                * Possible values for compression:
-                                *  -1   Z_DEFAULT_COMPRESSION
-                                *   0  COMPRESSION_NONE
-                                *  1-9 levels for gzip compression */
+   int         compression;    /* Compression requested on open Possible
+                                * values for compression: -1
+                                * Z_DEFAULT_COMPRESSION 0  COMPRESSION_NONE
+                                * 1-9 levels for gzip compression */
    ArchiveMode mode;           /* File mode - r or w */
    void       *formatData;     /* Header data specific to file format */
 
index 87c6fb6ec2a3a9bda5b621eae9f367bbda1754e7..a28c15ab3ea1060602892bd8dd16c10cb317fd35 100644 (file)
@@ -311,7 +311,7 @@ static size_t
 _WriteData(ArchiveHandle *AH, const void *data, size_t dLen)
 {
    lclContext *ctx = (lclContext *) AH->formatData;
-   CompressorState    *cs = ctx->cs;
+   CompressorState *cs = ctx->cs;
 
    if (dLen == 0)
        return 0;
@@ -793,6 +793,7 @@ static void
 _DeClone(ArchiveHandle *AH)
 {
    lclContext *ctx = (lclContext *) AH->formatData;
+
    free(ctx);
 }
 
@@ -911,7 +912,7 @@ _CustomReadFunc(ArchiveHandle *AH, char **buf, size_t *buflen)
                         "could not read from input file: end of file\n");
        else
            die_horribly(AH, modulename,
-               "could not read from input file: %s\n", strerror(errno));
+                   "could not read from input file: %s\n", strerror(errno));
    }
    return cnt;
 }
index 540ca5405a087b70daed86fd7b04b6ddeea93e92..111c3e822a88d52dd5694cbcdde2c905468c9ca2 100644 (file)
@@ -45,11 +45,11 @@ typedef struct
     * Our archive location. This is basically what the user specified as his
     * backup file but of course here it is a directory.
     */
-   char               *directory;
+   char       *directory;
 
-   cfp                *dataFH;             /* currently open data file */
+   cfp        *dataFH;         /* currently open data file */
 
-   cfp                *blobsTocFH;         /* file handle for blobs.toc */
+   cfp        *blobsTocFH;     /* file handle for blobs.toc */
 } lclContext;
 
 typedef struct
@@ -168,9 +168,10 @@ InitArchiveFmt_Directory(ArchiveHandle *AH)
                         fname, strerror(errno));
 
        ctx->dataFH = tocFH;
+
        /*
-        * The TOC of a directory format dump shares the format code of
-        * the tar format.
+        * The TOC of a directory format dump shares the format code of the
+        * tar format.
         */
        AH->format = archTar;
        ReadHead(AH);
@@ -193,8 +194,8 @@ InitArchiveFmt_Directory(ArchiveHandle *AH)
 static void
 _ArchiveEntry(ArchiveHandle *AH, TocEntry *te)
 {
-   lclTocEntry    *tctx;
-   char            fn[MAXPGPATH];
+   lclTocEntry *tctx;
+   char        fn[MAXPGPATH];
 
    tctx = (lclTocEntry *) calloc(1, sizeof(lclTocEntry));
    if (!tctx)
@@ -286,9 +287,9 @@ _PrintExtraToc(ArchiveHandle *AH, TocEntry *te)
 static void
 _StartData(ArchiveHandle *AH, TocEntry *te)
 {
-   lclTocEntry    *tctx = (lclTocEntry *) te->formatData;
-   lclContext     *ctx = (lclContext *) AH->formatData;
-   char           *fname;
+   lclTocEntry *tctx = (lclTocEntry *) te->formatData;
+   lclContext *ctx = (lclContext *) AH->formatData;
+   char       *fname;
 
    fname = prependDirectory(AH, tctx->filename);
 
@@ -310,7 +311,7 @@ _StartData(ArchiveHandle *AH, TocEntry *te)
 static size_t
 _WriteData(ArchiveHandle *AH, const void *data, size_t dLen)
 {
-   lclContext         *ctx = (lclContext *) AH->formatData;
+   lclContext *ctx = (lclContext *) AH->formatData;
 
    if (dLen == 0)
        return 0;
@@ -327,7 +328,7 @@ _WriteData(ArchiveHandle *AH, const void *data, size_t dLen)
 static void
 _EndData(ArchiveHandle *AH, TocEntry *te)
 {
-   lclContext     *ctx = (lclContext *) AH->formatData;
+   lclContext *ctx = (lclContext *) AH->formatData;
 
    /* Close the file */
    cfclose(ctx->dataFH);
@@ -349,7 +350,8 @@ _PrintFileData(ArchiveHandle *AH, char *filename, RestoreOptions *ropt)
    if (!filename)
        return;
 
-   cfp  = cfopen_read(filename, PG_BINARY_R);
+   cfp = cfopen_read(filename, PG_BINARY_R);
+
    if (!cfp)
        die_horribly(AH, modulename, "could not open input file \"%s\": %s\n",
                     filename, strerror(errno));
@@ -380,7 +382,8 @@ _PrintTocData(ArchiveHandle *AH, TocEntry *te, RestoreOptions *ropt)
        _LoadBlobs(AH, ropt);
    else
    {
-       char   *fname = prependDirectory(AH, tctx->filename);
+       char       *fname = prependDirectory(AH, tctx->filename);
+
        _PrintFileData(AH, fname, ropt);
    }
 }
@@ -388,10 +391,10 @@ _PrintTocData(ArchiveHandle *AH, TocEntry *te, RestoreOptions *ropt)
 static void
 _LoadBlobs(ArchiveHandle *AH, RestoreOptions *ropt)
 {
-   Oid             oid;
-   lclContext     *ctx = (lclContext *) AH->formatData;
-   char           *fname;
-   char            line[MAXPGPATH];
+   Oid         oid;
+   lclContext *ctx = (lclContext *) AH->formatData;
+   char       *fname;
+   char        line[MAXPGPATH];
 
    StartRestoreBlobs(AH);
 
@@ -518,10 +521,11 @@ static void
 _CloseArchive(ArchiveHandle *AH)
 {
    lclContext *ctx = (lclContext *) AH->formatData;
+
    if (AH->mode == archModeWrite)
    {
-       cfp    *tocFH;
-       char   *fname = prependDirectory(AH, "toc.dat");
+       cfp        *tocFH;
+       char       *fname = prependDirectory(AH, "toc.dat");
 
        /* The TOC is always created uncompressed */
        tocFH = cfopen_write(fname, PG_BINARY_W, 0);
@@ -529,6 +533,7 @@ _CloseArchive(ArchiveHandle *AH)
            die_horribly(AH, modulename, "could not open output file \"%s\": %s\n",
                         fname, strerror(errno));
        ctx->dataFH = tocFH;
+
        /*
         * Write 'tar' in the format field of the toc.dat file. The directory
         * is compatible with 'tar', so there's no point having a different
@@ -555,14 +560,14 @@ _CloseArchive(ArchiveHandle *AH)
  * Called by the archiver when starting to save all BLOB DATA (not schema).
  * It is called just prior to the dumper's DataDumper routine.
  *
- * We open the large object TOC file here, so that we can append a line to 
+ * We open the large object TOC file here, so that we can append a line to
  * it for each blob.
  */
 static void
 _StartBlobs(ArchiveHandle *AH, TocEntry *te)
 {
-   lclContext     *ctx = (lclContext *) AH->formatData;
-   char           *fname;
+   lclContext *ctx = (lclContext *) AH->formatData;
+   char       *fname;
 
    fname = prependDirectory(AH, "blobs.toc");
 
@@ -581,8 +586,8 @@ _StartBlobs(ArchiveHandle *AH, TocEntry *te)
 static void
 _StartBlob(ArchiveHandle *AH, TocEntry *te, Oid oid)
 {
-   lclContext     *ctx = (lclContext *) AH->formatData;
-   char            fname[MAXPGPATH];
+   lclContext *ctx = (lclContext *) AH->formatData;
+   char        fname[MAXPGPATH];
 
    snprintf(fname, MAXPGPATH, "%s/blob_%u.dat", ctx->directory, oid);
 
@@ -601,9 +606,9 @@ _StartBlob(ArchiveHandle *AH, TocEntry *te, Oid oid)
 static void
 _EndBlob(ArchiveHandle *AH, TocEntry *te, Oid oid)
 {
-   lclContext     *ctx = (lclContext *) AH->formatData;
-   char            buf[50];
-   int             len;
+   lclContext *ctx = (lclContext *) AH->formatData;
+   char        buf[50];
+   int         len;
 
    /* Close the BLOB data file itself */
    cfclose(ctx->dataFH);
@@ -612,7 +617,7 @@ _EndBlob(ArchiveHandle *AH, TocEntry *te, Oid oid)
    /* register the blob in blobs.toc */
    len = snprintf(buf, sizeof(buf), "%u blob_%u.dat\n", oid, oid);
    if (cfwrite(buf, len, ctx->blobsTocFH) != len)
-       die_horribly(AH, modulename, "could not write to blobs TOC file\n");        
+       die_horribly(AH, modulename, "could not write to blobs TOC file\n");
 }
 
 /*
@@ -632,7 +637,7 @@ _EndBlobs(ArchiveHandle *AH, TocEntry *te)
 static void
 createDirectory(const char *dir)
 {
-   struct stat     st;
+   struct stat st;
 
    /* the directory must not exist yet. */
    if (stat(dir, &st) == 0)
@@ -661,14 +666,14 @@ createDirectory(const char *dir)
 static char *
 prependDirectory(ArchiveHandle *AH, const char *relativeFilename)
 {
-   lclContext     *ctx = (lclContext *) AH->formatData;
-   static char     buf[MAXPGPATH];
-   char           *dname;
+   lclContext *ctx = (lclContext *) AH->formatData;
+   static char buf[MAXPGPATH];
+   char       *dname;
 
    dname = ctx->directory;
 
    if (strlen(dname) + 1 + strlen(relativeFilename) + 1 > MAXPGPATH)
-           die_horribly(AH, modulename, "path name too long: %s", dname);
+       die_horribly(AH, modulename, "path name too long: %s", dname);
 
    strcpy(buf, dname);
    strcat(buf, "/");
index d0f6a589b328e7a7a33339aa9e336dd98b1f751f..041f9f9cbbb61acc40439626a1d6badd7ecef914 100644 (file)
@@ -4,7 +4,7 @@
  *
  * This file is copied from the 'files' format file, but dumps data into
  * one temp file then sends it to the output TAR archive.
- * 
+ *
  * NOTE: If you untar the created 'tar' file, the resulting files are
  * compatible with the 'directory' format. Please keep the two formats in
  * sync.
index 1ccdb4dab9a78d97fba3a2cda7495bfcbd82fe2e..afda7950d11e2ae55ac6c6abb99c17dea8b0f681 100644 (file)
@@ -155,11 +155,11 @@ static void dumpComment(Archive *fout, const char *target,
 static int findComments(Archive *fout, Oid classoid, Oid objoid,
             CommentItem **items);
 static int collectComments(Archive *fout, CommentItem **items);
-static void    dumpSecLabel(Archive *fout, const char *target,
-                        const char *namespace, const char *owner,
-                        CatalogId catalogId, int subid, DumpId dumpId);
-static int findSecLabels(Archive *fout, Oid classoid, Oid objoid,
-                         SecLabelItem **items);
+static void dumpSecLabel(Archive *fout, const char *target,
+            const char *namespace, const char *owner,
+            CatalogId catalogId, int subid, DumpId dumpId);
+static int findSecLabels(Archive *fout, Oid classoid, Oid objoid,
+             SecLabelItem **items);
 static int collectSecLabels(Archive *fout, SecLabelItem **items);
 static void dumpDumpableObject(Archive *fout, DumpableObject *dobj);
 static void dumpNamespace(Archive *fout, NamespaceInfo *nspinfo);
@@ -236,10 +236,10 @@ static void binary_upgrade_set_type_oids_by_type_oid(
 static bool binary_upgrade_set_type_oids_by_rel_oid(
                                 PQExpBuffer upgrade_buffer, Oid pg_rel_oid);
 static void binary_upgrade_set_pg_class_oids(PQExpBuffer upgrade_buffer,
-                               Oid pg_class_oid, bool is_index);
+                                Oid pg_class_oid, bool is_index);
 static void binary_upgrade_extension_member(PQExpBuffer upgrade_buffer,
-                                           DumpableObject *dobj,
-                                           const char *objlabel);
+                               DumpableObject *dobj,
+                               const char *objlabel);
 static const char *getAttrName(int attrnum, TableInfo *tblInfo);
 static const char *fmtCopyColumnList(const TableInfo *ti);
 static void do_sql_command(PGconn *conn, const char *query);
@@ -278,7 +278,7 @@ main(int argc, char **argv)
    int         optindex;
    RestoreOptions *ropt;
    ArchiveFormat archiveFormat = archUnknown;
-   ArchiveMode archiveMode;
+   ArchiveMode archiveMode;
 
    static int  disable_triggers = 0;
    static int  outputNoTablespaces = 0;
@@ -911,6 +911,7 @@ parseArchiveFormat(const char *format, ArchiveMode *mode)
    else if (pg_strcasecmp(format, "directory") == 0)
        archiveFormat = archDirectory;
    else if (pg_strcasecmp(format, "f") == 0 || pg_strcasecmp(format, "file") == 0)
+
        /*
         * Dump files into the current directory; for demonstration only, not
         * documented.
@@ -1588,7 +1589,7 @@ makeTableDataInfo(TableInfo *tbinfo, bool oids)
    tdinfo->dobj.namespace = tbinfo->dobj.namespace;
    tdinfo->tdtable = tbinfo;
    tdinfo->oids = oids;
-   tdinfo->filtercond = NULL;              /* might get set later */
+   tdinfo->filtercond = NULL;  /* might get set later */
    addObjectDependency(&tdinfo->dobj, tbinfo->dobj.dumpId);
 
    tbinfo->dataObj = tdinfo;
@@ -1932,7 +1933,7 @@ dumpDatabase(Archive *AH)
        int         i_relfrozenxid;
 
        /*
-        *  pg_largeobject
+        * pg_largeobject
         */
        appendPQExpBuffer(loFrozenQry, "SELECT relfrozenxid\n"
                          "FROM pg_catalog.pg_class\n"
@@ -1966,29 +1967,29 @@ dumpDatabase(Archive *AH)
        PQclear(lo_res);
 
        /*
-        *  pg_largeobject_metadata
+        * pg_largeobject_metadata
         */
        if (g_fout->remoteVersion >= 90000)
        {
            resetPQExpBuffer(loFrozenQry);
            resetPQExpBuffer(loOutQry);
-   
+
            appendPQExpBuffer(loFrozenQry, "SELECT relfrozenxid\n"
                              "FROM pg_catalog.pg_class\n"
                              "WHERE oid = %u;\n",
                              LargeObjectMetadataRelationId);
-   
+
            lo_res = PQexec(g_conn, loFrozenQry->data);
            check_sql_result(lo_res, g_conn, loFrozenQry->data, PGRES_TUPLES_OK);
-   
+
            if (PQntuples(lo_res) != 1)
            {
                write_msg(NULL, "dumpDatabase(): could not find pg_largeobject_metadata.relfrozenxid\n");
                exit_nicely();
            }
-   
+
            i_relfrozenxid = PQfnumber(lo_res, "relfrozenxid");
-   
+
            appendPQExpBuffer(loOutQry, "\n-- For binary upgrade, set pg_largeobject_metadata.relfrozenxid\n");
            appendPQExpBuffer(loOutQry, "UPDATE pg_catalog.pg_class\n"
                              "SET relfrozenxid = '%u'\n"
@@ -2001,7 +2002,7 @@ dumpDatabase(Archive *AH)
                         loOutQry->data, "", NULL,
                         NULL, 0,
                         NULL, NULL);
-   
+
            PQclear(lo_res);
        }
 
@@ -2437,7 +2438,7 @@ binary_upgrade_set_type_oids_by_rel_oid(PQExpBuffer upgrade_buffer,
 
 static void
 binary_upgrade_set_pg_class_oids(PQExpBuffer upgrade_buffer, Oid pg_class_oid,
-                               bool is_index)
+                                bool is_index)
 {
    PQExpBuffer upgrade_query = createPQExpBuffer();
    int         ntups;
@@ -2446,7 +2447,7 @@ binary_upgrade_set_pg_class_oids(PQExpBuffer upgrade_buffer, Oid pg_class_oid,
    Oid         pg_class_reltoastidxid;
 
    appendPQExpBuffer(upgrade_query,
-                   "SELECT c.reltoastrelid, t.reltoastidxid "
+                     "SELECT c.reltoastrelid, t.reltoastidxid "
                      "FROM pg_catalog.pg_class c LEFT JOIN "
                      "pg_catalog.pg_class t ON (c.reltoastrelid = t.oid) "
                      "WHERE c.oid = '%u'::pg_catalog.oid;",
@@ -2470,7 +2471,7 @@ binary_upgrade_set_pg_class_oids(PQExpBuffer upgrade_buffer, Oid pg_class_oid,
    pg_class_reltoastidxid = atooid(PQgetvalue(upgrade_res, 0, PQfnumber(upgrade_res, "reltoastidxid")));
 
    appendPQExpBuffer(upgrade_buffer,
-                   "\n-- For binary upgrade, must preserve pg_class oids\n");
+                  "\n-- For binary upgrade, must preserve pg_class oids\n");
 
    if (!is_index)
    {
@@ -2485,14 +2486,14 @@ binary_upgrade_set_pg_class_oids(PQExpBuffer upgrade_buffer, Oid pg_class_oid,
             * the creation of a TOAST table, and the TOAST table might have
             * been created long after table creation, when the table was
             * loaded with wide data.  By setting the TOAST oid we force
-            * creation of the TOAST heap and TOAST index by the backend
-            * so we can cleanly copy the files during binary upgrade.
+            * creation of the TOAST heap and TOAST index by the backend so we
+            * can cleanly copy the files during binary upgrade.
             */
-   
+
            appendPQExpBuffer(upgrade_buffer,
                              "SELECT binary_upgrade.set_next_toast_pg_class_oid('%u'::pg_catalog.oid);\n",
                              pg_class_reltoastrelid);
-   
+
            /* every toast table has an index */
            appendPQExpBuffer(upgrade_buffer,
                              "SELECT binary_upgrade.set_next_index_pg_class_oid('%u'::pg_catalog.oid);\n",
@@ -2526,10 +2527,10 @@ binary_upgrade_extension_member(PQExpBuffer upgrade_buffer,
        return;
 
    /*
-    * Find the parent extension.  We could avoid this search if we wanted
-    * to add a link field to DumpableObject, but the space costs of that
-    * would be considerable.  We assume that member objects could only have
-    * direct dependency on their own extension, not any others.
+    * Find the parent extension.  We could avoid this search if we wanted to
+    * add a link field to DumpableObject, but the space costs of that would
+    * be considerable.  We assume that member objects could only have a
+    * direct dependency on their own extension, not any others.
     */
    for (i = 0; i < dobj->nDeps; i++)
    {
@@ -2545,7 +2546,7 @@ binary_upgrade_extension_member(PQExpBuffer upgrade_buffer,
    }
 
    appendPQExpBuffer(upgrade_buffer,
-                     "\n-- For binary upgrade, handle extension membership the hard way\n");
+     "\n-- For binary upgrade, handle extension membership the hard way\n");
    appendPQExpBuffer(upgrade_buffer, "ALTER EXTENSION %s ADD %s;\n",
                      fmtId(extobj->name),
                      objlabel);
@@ -3664,10 +3665,10 @@ getFuncs(int *numFuncs)
    selectSourceSchema("pg_catalog");
 
    /*
-    * Find all user-defined functions.  Normally we can exclude functions
-    * in pg_catalog, which is worth doing since there are several thousand
-    * of 'em.  However, there are some extensions that create functions in
-    * pg_catalog.  In normal dumps we can still ignore those --- but in
+    * Find all user-defined functions.  Normally we can exclude functions in
+    * pg_catalog, which is worth doing since there are several thousand of
+    * 'em.  However, there are some extensions that create functions in
+    * pg_catalog.  In normal dumps we can still ignore those --- but in
     * binary-upgrade mode, we must dump the member objects of the extension,
     * so be sure to fetch any such functions.
     */
@@ -5594,19 +5595,19 @@ getTableAttrs(TableInfo *tblinfo, int numTables)
        if (g_fout->remoteVersion >= 90100)
        {
            /*
-            * attcollation is new in 9.1.  Since we only want to dump
-            * COLLATE clauses for attributes whose collation is different
-            * from their type's default, we use a CASE here to suppress
-            * uninteresting attcollations cheaply.
+            * attcollation is new in 9.1.  Since we only want to dump COLLATE
+            * clauses for attributes whose collation is different from their
+            * type's default, we use a CASE here to suppress uninteresting
+            * attcollations cheaply.
             */
            appendPQExpBuffer(q, "SELECT a.attnum, a.attname, a.atttypmod, "
                              "a.attstattarget, a.attstorage, t.typstorage, "
                              "a.attnotnull, a.atthasdef, a.attisdropped, "
                              "a.attlen, a.attalign, a.attislocal, "
                  "pg_catalog.format_type(t.oid,a.atttypmod) AS atttypname, "
-                         "array_to_string(a.attoptions, ', ') AS attoptions, "
+                       "array_to_string(a.attoptions, ', ') AS attoptions, "
                              "CASE WHEN a.attcollation <> t.typcollation "
-                             "THEN a.attcollation ELSE 0 END AS attcollation "
+                           "THEN a.attcollation ELSE 0 END AS attcollation "
             "FROM pg_catalog.pg_attribute a LEFT JOIN pg_catalog.pg_type t "
                              "ON a.atttypid = t.oid "
                              "WHERE a.attrelid = '%u'::pg_catalog.oid "
@@ -5622,7 +5623,7 @@ getTableAttrs(TableInfo *tblinfo, int numTables)
                              "a.attnotnull, a.atthasdef, a.attisdropped, "
                              "a.attlen, a.attalign, a.attislocal, "
                  "pg_catalog.format_type(t.oid,a.atttypmod) AS atttypname, "
-                         "array_to_string(a.attoptions, ', ') AS attoptions, "
+                       "array_to_string(a.attoptions, ', ') AS attoptions, "
                              "0 AS attcollation "
             "FROM pg_catalog.pg_attribute a LEFT JOIN pg_catalog.pg_type t "
                              "ON a.atttypid = t.oid "
@@ -7151,8 +7152,8 @@ dumpExtension(Archive *fout, ExtensionInfo *extinfo)
    }
    else
    {
-       int     i;
-       int     n;
+       int         i;
+       int         n;
 
        appendPQExpBuffer(q, "-- For binary upgrade, create an empty extension and insert objects into it\n");
        appendPQExpBuffer(q,
@@ -7164,10 +7165,11 @@ dumpExtension(Archive *fout, ExtensionInfo *extinfo)
        appendPQExpBuffer(q, "%s, ", extinfo->relocatable ? "true" : "false");
        appendStringLiteralAH(q, extinfo->extversion, fout);
        appendPQExpBuffer(q, ", ");
+
        /*
         * Note that we're pushing extconfig (an OID array) back into
-        * pg_extension exactly as-is.  This is OK because pg_class OIDs
-        * are preserved in binary upgrade.
+        * pg_extension exactly as-is.  This is OK because pg_class OIDs are
+        * preserved in binary upgrade.
         */
        if (strlen(extinfo->extconfig) > 2)
            appendStringLiteralAH(q, extinfo->extconfig, fout);
@@ -7810,13 +7812,13 @@ dumpDomain(Archive *fout, TypeInfo *tyinfo)
    {
        /* typcollation is new in 9.1 */
        appendPQExpBuffer(query, "SELECT t.typnotnull, "
-                         "pg_catalog.format_type(t.typbasetype, t.typtypmod) AS typdefn, "
+           "pg_catalog.format_type(t.typbasetype, t.typtypmod) AS typdefn, "
                          "pg_catalog.pg_get_expr(t.typdefaultbin, 'pg_catalog.pg_type'::pg_catalog.regclass) AS typdefaultbin, "
                          "t.typdefault, "
                          "CASE WHEN t.typcollation <> u.typcollation "
                          "THEN t.typcollation ELSE 0 END AS typcollation "
                          "FROM pg_catalog.pg_type t "
-                         "LEFT JOIN pg_catalog.pg_type u ON (t.typbasetype = u.oid) "
+                "LEFT JOIN pg_catalog.pg_type u ON (t.typbasetype = u.oid) "
                          "WHERE t.oid = '%u'::pg_catalog.oid",
                          tyinfo->dobj.catId.oid);
    }
@@ -7824,7 +7826,7 @@ dumpDomain(Archive *fout, TypeInfo *tyinfo)
    {
        /* We assume here that remoteVersion must be at least 70300 */
        appendPQExpBuffer(query, "SELECT typnotnull, "
-                         "pg_catalog.format_type(typbasetype, typtypmod) AS typdefn, "
+               "pg_catalog.format_type(typbasetype, typtypmod) AS typdefn, "
                          "pg_catalog.pg_get_expr(typdefaultbin, 'pg_catalog.pg_type'::pg_catalog.regclass) AS typdefaultbin, "
                          "typdefault, 0 AS typcollation "
                          "FROM pg_catalog.pg_type "
@@ -7870,7 +7872,7 @@ dumpDomain(Archive *fout, TypeInfo *tyinfo)
    /* Print collation only if different from base type's collation */
    if (OidIsValid(typcollation))
    {
-       CollInfo *coll;
+       CollInfo   *coll;
 
        coll = findCollationByOid(typcollation);
        if (coll)
@@ -9677,11 +9679,11 @@ dumpOpclass(Archive *fout, OpclassInfo *opcinfo)
     * Print only those opfamily members that are tied to the opclass by
     * pg_depend entries.
     *
-    * XXX RECHECK is gone as of 8.4, but we'll still print it if dumping
-    * an older server's opclass in which it is used.  This is to avoid
+    * XXX RECHECK is gone as of 8.4, but we'll still print it if dumping an
+    * older server's opclass in which it is used.  This is to avoid
     * hard-to-detect breakage if a newer pg_dump is used to dump from an
-    * older server and then reload into that old version.  This can go
-    * away once 8.3 is so old as to not be of interest to anyone.
+    * older server and then reload into that old version.  This can go away
+    * once 8.3 is so old as to not be of interest to anyone.
     */
    resetPQExpBuffer(query);
 
@@ -9691,11 +9693,11 @@ dumpOpclass(Archive *fout, OpclassInfo *opcinfo)
                          "amopopr::pg_catalog.regoperator, "
                          "opfname AS sortfamily, "
                          "nspname AS sortfamilynsp "
-                         "FROM pg_catalog.pg_amop ao JOIN pg_catalog.pg_depend ON "
+                  "FROM pg_catalog.pg_amop ao JOIN pg_catalog.pg_depend ON "
                          "(classid = 'pg_catalog.pg_amop'::pg_catalog.regclass AND objid = ao.oid) "
-                         "LEFT JOIN pg_catalog.pg_opfamily f ON f.oid = amopsortfamily "
-                         "LEFT JOIN pg_catalog.pg_namespace n ON n.oid = opfnamespace "
-                         "WHERE refclassid = 'pg_catalog.pg_opclass'::pg_catalog.regclass "
+             "LEFT JOIN pg_catalog.pg_opfamily f ON f.oid = amopsortfamily "
+              "LEFT JOIN pg_catalog.pg_namespace n ON n.oid = opfnamespace "
+          "WHERE refclassid = 'pg_catalog.pg_opclass'::pg_catalog.regclass "
                          "AND refobjid = '%u'::pg_catalog.oid "
                          "AND amopfamily = '%s'::pg_catalog.oid "
                          "ORDER BY amopstrategy",
@@ -9733,8 +9735,8 @@ dumpOpclass(Archive *fout, OpclassInfo *opcinfo)
    else
    {
        /*
-        * Here, we print all entries since there are no opfamilies and
-        * hence no loose operators to worry about.
+        * Here, we print all entries since there are no opfamilies and hence
+        * no loose operators to worry about.
         */
        appendPQExpBuffer(query, "SELECT amopstrategy, amopreqcheck, "
                          "amopopr::pg_catalog.regoperator, "
@@ -9939,11 +9941,11 @@ dumpOpfamily(Archive *fout, OpfamilyInfo *opfinfo)
     * Fetch only those opfamily members that are tied directly to the
     * opfamily by pg_depend entries.
     *
-    * XXX RECHECK is gone as of 8.4, but we'll still print it if dumping
-    * an older server's opclass in which it is used.  This is to avoid
+    * XXX RECHECK is gone as of 8.4, but we'll still print it if dumping an
+    * older server's opclass in which it is used.  This is to avoid
     * hard-to-detect breakage if a newer pg_dump is used to dump from an
-    * older server and then reload into that old version.  This can go
-    * away once 8.3 is so old as to not be of interest to anyone.
+    * older server and then reload into that old version.  This can go away
+    * once 8.3 is so old as to not be of interest to anyone.
     */
    if (g_fout->remoteVersion >= 90100)
    {
@@ -9951,11 +9953,11 @@ dumpOpfamily(Archive *fout, OpfamilyInfo *opfinfo)
                          "amopopr::pg_catalog.regoperator, "
                          "opfname AS sortfamily, "
                          "nspname AS sortfamilynsp "
-                         "FROM pg_catalog.pg_amop ao JOIN pg_catalog.pg_depend ON "
+                  "FROM pg_catalog.pg_amop ao JOIN pg_catalog.pg_depend ON "
                          "(classid = 'pg_catalog.pg_amop'::pg_catalog.regclass AND objid = ao.oid) "
-                         "LEFT JOIN pg_catalog.pg_opfamily f ON f.oid = amopsortfamily "
-                         "LEFT JOIN pg_catalog.pg_namespace n ON n.oid = opfnamespace "
-                         "WHERE refclassid = 'pg_catalog.pg_opfamily'::pg_catalog.regclass "
+             "LEFT JOIN pg_catalog.pg_opfamily f ON f.oid = amopsortfamily "
+              "LEFT JOIN pg_catalog.pg_namespace n ON n.oid = opfnamespace "
+         "WHERE refclassid = 'pg_catalog.pg_opfamily'::pg_catalog.regclass "
                          "AND refobjid = '%u'::pg_catalog.oid "
                          "AND amopfamily = '%u'::pg_catalog.oid "
                          "ORDER BY amopstrategy",
@@ -11288,7 +11290,7 @@ dumpUserMappings(Archive *fout,
     * to fail if run by a non-superuser.  Note that the view will show
     * umoptions as null if the user hasn't got privileges for the associated
     * server; this means that pg_dump will dump such a mapping, but with no
-    * OPTIONS clause.  A possible alternative is to skip such mappings
+    * OPTIONS clause.  A possible alternative is to skip such mappings
     * altogether, but it's not clear that that's an improvement.
     */
    selectSourceSchema("pg_catalog");
@@ -11495,10 +11497,10 @@ dumpSecLabel(Archive *fout, const char *target,
             const char *namespace, const char *owner,
             CatalogId catalogId, int subid, DumpId dumpId)
 {
-   SecLabelItem   *labels;
-   int             nlabels;
-   int             i;
-   PQExpBuffer     query;
+   SecLabelItem *labels;
+   int         nlabels;
+   int         i;
+   PQExpBuffer query;
 
    /* do nothing, if --no-security-label is supplied */
    if (no_security_label)
@@ -11557,11 +11559,11 @@ dumpSecLabel(Archive *fout, const char *target,
 static void
 dumpTableSecLabel(Archive *fout, TableInfo *tbinfo, const char *reltypename)
 {
-   SecLabelItem   *labels;
-   int             nlabels;
-   int             i;
-   PQExpBuffer     query;
-    PQExpBuffer        target;
+   SecLabelItem *labels;
+   int         nlabels;
+   int         i;
+   PQExpBuffer query;
+   PQExpBuffer target;
 
    /* do nothing, if --no-security-label is supplied */
    if (no_security_label)
@@ -11587,9 +11589,9 @@ dumpTableSecLabel(Archive *fout, TableInfo *tbinfo, const char *reltypename)
    for (i = 0; i < nlabels; i++)
    {
        const char *colname;
-       const char *provider    = labels[i].provider;
-       const char *label       = labels[i].label;
-       int         objsubid    = labels[i].objsubid;
+       const char *provider = labels[i].provider;
+       const char *label = labels[i].label;
+       int         objsubid = labels[i].objsubid;
 
        resetPQExpBuffer(target);
        if (objsubid == 0)
@@ -11639,12 +11641,12 @@ findSecLabels(Archive *fout, Oid classoid, Oid objoid, SecLabelItem **items)
 {
    /* static storage for table of security labels */
    static SecLabelItem *labels = NULL;
-   static int           nlabels = -1;
+   static int  nlabels = -1;
 
-   SecLabelItem        *middle = NULL;
-   SecLabelItem        *low;
-   SecLabelItem        *high;
-   int                  nmatch;
+   SecLabelItem *middle = NULL;
+   SecLabelItem *low;
+   SecLabelItem *high;
+   int         nmatch;
 
    /* Get security labels if we didn't already */
    if (nlabels < 0)
@@ -11668,10 +11670,10 @@ findSecLabels(Archive *fout, Oid classoid, Oid objoid, SecLabelItem **items)
        else if (objoid > middle->objoid)
            low = middle + 1;
        else
-           break;          /* found a match */
+           break;              /* found a match */
    }
 
-   if (low > high)         /* no matches */
+   if (low > high)             /* no matches */
    {
        *items = NULL;
        return 0;
@@ -11718,16 +11720,16 @@ findSecLabels(Archive *fout, Oid classoid, Oid objoid, SecLabelItem **items)
 static int
 collectSecLabels(Archive *fout, SecLabelItem **items)
 {
-   PGresult       *res;
-   PQExpBuffer     query;
-   int             i_label;
-   int             i_provider;
-   int             i_classoid;
-   int             i_objoid;
-   int             i_objsubid;
-   int             ntups;
-   int             i;
-   SecLabelItem   *labels;
+   PGresult   *res;
+   PQExpBuffer query;
+   int         i_label;
+   int         i_provider;
+   int         i_classoid;
+   int         i_objoid;
+   int         i_objsubid;
+   int         ntups;
+   int         i;
+   SecLabelItem *labels;
 
    query = createPQExpBuffer();
 
@@ -11740,11 +11742,11 @@ collectSecLabels(Archive *fout, SecLabelItem **items)
    check_sql_result(res, g_conn, query->data, PGRES_TUPLES_OK);
 
    /* Construct lookup table containing OIDs in numeric form */
-   i_label     = PQfnumber(res, "label");
-   i_provider  = PQfnumber(res, "provider");
-   i_classoid  = PQfnumber(res, "classoid");
-   i_objoid    = PQfnumber(res, "objoid");
-   i_objsubid  = PQfnumber(res, "objsubid");
+   i_label = PQfnumber(res, "label");
+   i_provider = PQfnumber(res, "provider");
+   i_classoid = PQfnumber(res, "classoid");
+   i_objoid = PQfnumber(res, "objoid");
+   i_objsubid = PQfnumber(res, "objsubid");
 
    ntups = PQntuples(res);
 
@@ -11752,15 +11754,15 @@ collectSecLabels(Archive *fout, SecLabelItem **items)
 
    for (i = 0; i < ntups; i++)
    {
-       labels[i].label     = PQgetvalue(res, i, i_label);
-       labels[i].provider  = PQgetvalue(res, i, i_provider);
+       labels[i].label = PQgetvalue(res, i, i_label);
+       labels[i].provider = PQgetvalue(res, i, i_provider);
        labels[i].classoid = atooid(PQgetvalue(res, i, i_classoid));
        labels[i].objoid = atooid(PQgetvalue(res, i, i_objoid));
        labels[i].objsubid = atoi(PQgetvalue(res, i, i_objsubid));
    }
 
    /* Do NOT free the PGresult since we are keeping pointers into it */
-    destroyPQExpBuffer(query);
+   destroyPQExpBuffer(query);
 
    *items = labels;
    return ntups;
@@ -11937,19 +11939,19 @@ dumpTableSchema(Archive *fout, TableInfo *tbinfo)
    {
        if (tbinfo->relkind == RELKIND_FOREIGN_TABLE)
        {
-           int     i_srvname;
-           int     i_ftoptions;
+           int         i_srvname;
+           int         i_ftoptions;
 
            reltypename = "FOREIGN TABLE";
 
-           /* retrieve name of foreign server and generic options */ 
+           /* retrieve name of foreign server and generic options */
            appendPQExpBuffer(query,
-               "SELECT fs.srvname, array_to_string(ARRAY("
+                             "SELECT fs.srvname, array_to_string(ARRAY("
                "   SELECT option_name || ' ' || quote_literal(option_value)"
-               "   FROM pg_options_to_table(ftoptions)), ', ') AS ftoptions "
-               "FROM pg_foreign_table ft JOIN pg_foreign_server fs "
-               "   ON (fs.oid = ft.ftserver) "
-               "WHERE ft.ftrelid = %u", tbinfo->dobj.catId.oid);
+              "   FROM pg_options_to_table(ftoptions)), ', ') AS ftoptions "
+                       "FROM pg_foreign_table ft JOIN pg_foreign_server fs "
+                             " ON (fs.oid = ft.ftserver) "
+                           "WHERE ft.ftrelid = %u", tbinfo->dobj.catId.oid);
            res = PQexec(g_conn, query->data);
            check_sql_result(res, g_conn, query->data, PGRES_TUPLES_OK);
            i_srvname = PQfnumber(res, "srvname");
@@ -11984,7 +11986,7 @@ dumpTableSchema(Archive *fout, TableInfo *tbinfo)
 
        appendPQExpBuffer(q, "CREATE %s%s %s",
                          tbinfo->relpersistence == RELPERSISTENCE_UNLOGGED ?
-                               "UNLOGGED " : "",
+                         "UNLOGGED " : "",
                          reltypename,
                          fmtId(tbinfo->dobj.name));
        if (tbinfo->reloftype)
@@ -12063,14 +12065,14 @@ dumpTableSchema(Archive *fout, TableInfo *tbinfo)
                /* Add collation if not default for the type */
                if (OidIsValid(tbinfo->attcollation[j]))
                {
-                   CollInfo *coll;
+                   CollInfo   *coll;
 
                    coll = findCollationByOid(tbinfo->attcollation[j]);
                    if (coll)
                    {
                        /* always schema-qualify, don't try to be smart */
                        appendPQExpBuffer(q, " COLLATE %s.",
-                                         fmtId(coll->dobj.namespace->dobj.name));
+                                    fmtId(coll->dobj.namespace->dobj.name));
                        appendPQExpBuffer(q, "%s",
                                          fmtId(coll->dobj.name));
                    }
@@ -13546,9 +13548,9 @@ getExtensionMembership(ExtensionInfo extinfo[], int numExtensions)
 
        /*
         * Normally, mark the member object as not to be dumped.  But in
-        * binary upgrades, we still dump the members individually, since
-        * the idea is to exactly reproduce the database contents rather
-        * than replace the extension contents with something different.
+        * binary upgrades, we still dump the members individually, since the
+        * idea is to exactly reproduce the database contents rather than
+        * replace the extension contents with something different.
         */
        if (!binary_upgrade)
            dobj->dump = false;
@@ -13563,29 +13565,29 @@ getExtensionMembership(ExtensionInfo extinfo[], int numExtensions)
     * objects for them, ensuring their data will be dumped even though the
     * tables themselves won't be.
     *
-    * Note that we create TableDataInfo objects even in schemaOnly mode,
-    * ie, user data in a configuration table is treated like schema data.
-    * This seems appropriate since system data in a config table would
-    * get reloaded by CREATE EXTENSION.
+    * Note that we create TableDataInfo objects even in schemaOnly mode, ie,
+    * user data in a configuration table is treated like schema data. This
+    * seems appropriate since system data in a config table would get
+    * reloaded by CREATE EXTENSION.
     */
    for (i = 0; i < numExtensions; i++)
    {
-       char   *extconfig = extinfo[i].extconfig;
-       char   *extcondition = extinfo[i].extcondition;
-       char  **extconfigarray = NULL;
-       char  **extconditionarray = NULL;
-       int     nconfigitems;
-       int     nconditionitems;
+       char       *extconfig = extinfo[i].extconfig;
+       char       *extcondition = extinfo[i].extcondition;
+       char      **extconfigarray = NULL;
+       char      **extconditionarray = NULL;
+       int         nconfigitems;
+       int         nconditionitems;
 
        if (parsePGArray(extconfig, &extconfigarray, &nconfigitems) &&
-           parsePGArray(extcondition, &extconditionarray, &nconditionitems) &&
+         parsePGArray(extcondition, &extconditionarray, &nconditionitems) &&
            nconfigitems == nconditionitems)
        {
-           int     j;
+           int         j;
 
            for (j = 0; j < nconfigitems; j++)
            {
-               TableInfo *configtbl;
+               TableInfo  *configtbl;
 
                configtbl = findTableByOid(atooid(extconfigarray[j]));
                if (configtbl && configtbl->dataObj == NULL)
index 6559e23df14b2e1901904e237283c9ad67f50a2c..c95614b16fa6e1499177bf44f0d5300a2dbe4cb8 100644 (file)
@@ -145,11 +145,11 @@ typedef struct _namespaceInfo
 typedef struct _extensionInfo
 {
    DumpableObject dobj;
-   char       *namespace;      /* schema containing extension's objects */
+   char       *namespace;      /* schema containing extension's objects */
    bool        relocatable;
    char       *extversion;
-   char       *extconfig;      /* info about configuration tables */
-   char       *extcondition;
+   char       *extconfig;      /* info about configuration tables */
+   char       *extcondition;
 } ExtensionInfo;
 
 typedef struct _typeInfo
@@ -239,7 +239,7 @@ typedef struct _tableInfo
    char       *rolname;        /* name of owner, or empty string */
    char       *relacl;
    char        relkind;
-   char        relpersistence; /* relation persistence */
+   char        relpersistence; /* relation persistence */
    char       *reltablespace;  /* relation tablespace */
    char       *reloptions;     /* options specified by WITH (...) */
    char       *toast_reloptions;       /* ditto, for the TOAST table */
@@ -249,7 +249,7 @@ typedef struct _tableInfo
    bool        hasoids;        /* does it have OIDs? */
    uint32      frozenxid;      /* for restore frozen xid */
    Oid         toast_oid;      /* for restore toast frozen xid */
-   uint32      toast_frozenxid;/* for restore toast frozen xid */
+   uint32      toast_frozenxid;    /* for restore toast frozen xid */
    int         ncheck;         /* # of CHECK expressions */
    char       *reloftype;      /* underlying type for typed table */
    /* these two are set only if table is a sequence owned by a column: */
index 9082653552e349bd61065db7ef83e3cd3def21b0..0843ffe09fe2a56d213d200d6550898894c99ab4 100644 (file)
@@ -735,7 +735,7 @@ dumpRoles(PGconn *conn)
 
            appendPQExpBuffer(buf, "\n-- For binary upgrade, must preserve pg_authid.oid\n");
            appendPQExpBuffer(buf,
-            "SELECT binary_upgrade.set_next_pg_authid_oid('%u'::pg_catalog.oid);\n\n",
+                             "SELECT binary_upgrade.set_next_pg_authid_oid('%u'::pg_catalog.oid);\n\n",
                              auth_oid);
        }
 
index d7cdcf64344ef70129588b39946f9069c06c371b..31a9ab909ceb169ec0d887563b79fa040620a59b 100644 (file)
@@ -498,7 +498,7 @@ exec_command(const char *cmd,
                        break;
                }
                break;
-           case 'x':          /* Extensions */
+           case 'x':           /* Extensions */
                if (show_verbose)
                    success = listExtensionContents(pattern);
                else
@@ -1103,7 +1103,7 @@ exec_command(const char *cmd,
    else if (strcmp(cmd, "sf") == 0 || strcmp(cmd, "sf+") == 0)
    {
        bool        show_linenumbers = (strcmp(cmd, "sf+") == 0);
-       PQExpBuffer func_buf;
+       PQExpBuffer func_buf;
        char       *func;
        Oid         foid = InvalidOid;
 
@@ -1127,8 +1127,8 @@ exec_command(const char *cmd,
        }
        else
        {
-           FILE   *output;
-           bool    is_pager;
+           FILE       *output;
+           bool        is_pager;
 
            /* Select output stream: stdout, pager, or file */
            if (pset.queryFout == stdout)
@@ -1174,7 +1174,7 @@ exec_command(const char *cmd,
                 */
                while (*lines != '\0')
                {
-                   char   *eol;
+                   char       *eol;
 
                    if (in_header && strncmp(lines, "AS ", 3) == 0)
                        in_header = false;
@@ -1573,7 +1573,7 @@ do_connect(char *dbname, char *user, char *host, char *port)
        if (param_is_newly_set(PQhost(o_conn), PQhost(pset.db)) ||
            param_is_newly_set(PQport(o_conn), PQport(pset.db)))
        {
-           char    *host = PQhost(pset.db);
+           char       *host = PQhost(pset.db);
 
            if (host == NULL)
                host = DEFAULT_PGSOCKET_DIR;
@@ -1778,7 +1778,7 @@ editFile(const char *fname, int lineno)
    /* Allocate sufficient memory for command line. */
    if (lineno > 0)
        sys = pg_malloc(strlen(editorName)
-                       + strlen(editor_lineno_switch) + 10 /* for integer */
+                       + strlen(editor_lineno_switch) + 10     /* for integer */
                        + 1 + strlen(fname) + 10 + 1);
    else
        sys = pg_malloc(strlen(editorName) + strlen(fname) + 10 + 1);
@@ -2473,8 +2473,8 @@ strip_lineno_from_funcdesc(char *func)
     * multibyte environment: there is no reason to believe that we are
     * looking at the first byte of a character, nor are we necessarily
     * working in a "safe" encoding.  Fortunately the bitpatterns we are
-    * looking for are unlikely to occur as non-first bytes, but beware
-    * of trying to expand the set of cases that can be recognized.  We must
+    * looking for are unlikely to occur as non-first bytes, but beware of
+    * trying to expand the set of cases that can be recognized.  We must
     * guard the <ctype.h> macros by using isascii() first, too.
     */
 
index a30eaeb10f6faef44062c06a1bd4da87a2ad8a7e..bab67174a255c38e1978cfd0d66442058d5a4e96 100644 (file)
@@ -706,7 +706,7 @@ permissionsList(const char *pattern)
                      gettext_noop("Schema"),
                      gettext_noop("Name"),
       gettext_noop("table"), gettext_noop("view"), gettext_noop("sequence"),
-      gettext_noop("foreign table"),
+                     gettext_noop("foreign table"),
                      gettext_noop("Type"));
 
    printACLColumn(&buf, "c.relacl");
@@ -1745,7 +1745,7 @@ describeOneTableDetails(const char *schemaname,
        {
            printfPQExpBuffer(&buf,
                              "SELECT conname,\n"
-                "  pg_catalog.pg_get_constraintdef(r.oid, true) as condef\n");
+              "  pg_catalog.pg_get_constraintdef(r.oid, true) as condef\n");
            if (pset.sversion >= 90100)
                appendPQExpBuffer(&buf, "  ,convalidated\n");
            appendPQExpBuffer(&buf, "FROM pg_catalog.pg_constraint r\n"
@@ -1909,119 +1909,118 @@ describeOneTableDetails(const char *schemaname,
     */
    if (tableinfo.hastriggers)
    {
-           PGresult   *result;
-           int         tuples;
+       PGresult   *result;
+       int         tuples;
 
-           printfPQExpBuffer(&buf,
-                             "SELECT t.tgname, "
-                             "pg_catalog.pg_get_triggerdef(t.oid%s), "
-                             "t.tgenabled\n"
-                             "FROM pg_catalog.pg_trigger t\n"
-                             "WHERE t.tgrelid = '%s' AND ",
-                             (pset.sversion >= 90000 ? ", true" : ""),
-                             oid);
-           if (pset.sversion >= 90000)
-               appendPQExpBuffer(&buf, "NOT t.tgisinternal");
-           else if (pset.sversion >= 80300)
-               appendPQExpBuffer(&buf, "t.tgconstraint = 0");
-           else
-               appendPQExpBuffer(&buf,
-                                 "(NOT tgisconstraint "
-                                 " OR NOT EXISTS"
-                                 "  (SELECT 1 FROM pg_catalog.pg_depend d "
-                                 "   JOIN pg_catalog.pg_constraint c ON (d.refclassid = c.tableoid AND d.refobjid = c.oid) "
-                                 "   WHERE d.classid = t.tableoid AND d.objid = t.oid AND d.deptype = 'i' AND c.contype = 'f'))");
-           appendPQExpBuffer(&buf, "\nORDER BY 1");
+       printfPQExpBuffer(&buf,
+                         "SELECT t.tgname, "
+                         "pg_catalog.pg_get_triggerdef(t.oid%s), "
+                         "t.tgenabled\n"
+                         "FROM pg_catalog.pg_trigger t\n"
+                         "WHERE t.tgrelid = '%s' AND ",
+                         (pset.sversion >= 90000 ? ", true" : ""),
+                         oid);
+       if (pset.sversion >= 90000)
+           appendPQExpBuffer(&buf, "NOT t.tgisinternal");
+       else if (pset.sversion >= 80300)
+           appendPQExpBuffer(&buf, "t.tgconstraint = 0");
+       else
+           appendPQExpBuffer(&buf,
+                             "(NOT tgisconstraint "
+                             " OR NOT EXISTS"
+                             "  (SELECT 1 FROM pg_catalog.pg_depend d "
+                             "   JOIN pg_catalog.pg_constraint c ON (d.refclassid = c.tableoid AND d.refobjid = c.oid) "
+                             "   WHERE d.classid = t.tableoid AND d.objid = t.oid AND d.deptype = 'i' AND c.contype = 'f'))");
+       appendPQExpBuffer(&buf, "\nORDER BY 1");
 
-           result = PSQLexec(buf.data, false);
-           if (!result)
-               goto error_return;
-           else
-               tuples = PQntuples(result);
+       result = PSQLexec(buf.data, false);
+       if (!result)
+           goto error_return;
+       else
+           tuples = PQntuples(result);
 
-           if (tuples > 0)
+       if (tuples > 0)
+       {
+           bool        have_heading;
+           int         category;
+
+           /*
+            * split the output into 4 different categories. Enabled triggers,
+            * disabled triggers and the two special ALWAYS and REPLICA
+            * configurations.
+            */
+           for (category = 0; category < 4; category++)
            {
-               bool        have_heading;
-               int         category;
-
-               /*
-                * split the output into 4 different categories. Enabled
-                * triggers, disabled triggers and the two special ALWAYS and
-                * REPLICA configurations.
-                */
-               for (category = 0; category < 4; category++)
+               have_heading = false;
+               for (i = 0; i < tuples; i++)
                {
-                   have_heading = false;
-                   for (i = 0; i < tuples; i++)
+                   bool        list_trigger;
+                   const char *tgdef;
+                   const char *usingpos;
+                   const char *tgenabled;
+
+                   /*
+                    * Check if this trigger falls into the current category
+                    */
+                   tgenabled = PQgetvalue(result, i, 2);
+                   list_trigger = false;
+                   switch (category)
+                   {
+                       case 0:
+                           if (*tgenabled == 'O' || *tgenabled == 't')
+                               list_trigger = true;
+                           break;
+                       case 1:
+                           if (*tgenabled == 'D' || *tgenabled == 'f')
+                               list_trigger = true;
+                           break;
+                       case 2:
+                           if (*tgenabled == 'A')
+                               list_trigger = true;
+                           break;
+                       case 3:
+                           if (*tgenabled == 'R')
+                               list_trigger = true;
+                           break;
+                   }
+                   if (list_trigger == false)
+                       continue;
+
+                   /* Print the category heading once */
+                   if (have_heading == false)
                    {
-                       bool        list_trigger;
-                       const char *tgdef;
-                       const char *usingpos;
-                       const char *tgenabled;
-
-                       /*
-                        * Check if this trigger falls into the current
-                        * category
-                        */
-                       tgenabled = PQgetvalue(result, i, 2);
-                       list_trigger = false;
                        switch (category)
                        {
                            case 0:
-                               if (*tgenabled == 'O' || *tgenabled == 't')
-                                   list_trigger = true;
+                               printfPQExpBuffer(&buf, _("Triggers:"));
                                break;
                            case 1:
-                               if (*tgenabled == 'D' || *tgenabled == 'f')
-                                   list_trigger = true;
+                               printfPQExpBuffer(&buf, _("Disabled triggers:"));
                                break;
                            case 2:
-                               if (*tgenabled == 'A')
-                                   list_trigger = true;
+                               printfPQExpBuffer(&buf, _("Triggers firing always:"));
                                break;
                            case 3:
-                               if (*tgenabled == 'R')
-                                   list_trigger = true;
+                               printfPQExpBuffer(&buf, _("Triggers firing on replica only:"));
                                break;
-                       }
-                       if (list_trigger == false)
-                           continue;
-
-                       /* Print the category heading once */
-                       if (have_heading == false)
-                       {
-                           switch (category)
-                           {
-                               case 0:
-                                   printfPQExpBuffer(&buf, _("Triggers:"));
-                                   break;
-                               case 1:
-                                   printfPQExpBuffer(&buf, _("Disabled triggers:"));
-                                   break;
-                               case 2:
-                                   printfPQExpBuffer(&buf, _("Triggers firing always:"));
-                                   break;
-                               case 3:
-                                   printfPQExpBuffer(&buf, _("Triggers firing on replica only:"));
-                                   break;
 
-                           }
-                           printTableAddFooter(&cont, buf.data);
-                           have_heading = true;
                        }
-
-                       /* Everything after "TRIGGER" is echoed verbatim */
-                       tgdef = PQgetvalue(result, i, 1);
-                       usingpos = strstr(tgdef, " TRIGGER ");
-                       if (usingpos)
-                           tgdef = usingpos + 9;
-
-                       printfPQExpBuffer(&buf, "    %s", tgdef);
                        printTableAddFooter(&cont, buf.data);
+                       have_heading = true;
                    }
+
+                   /* Everything after "TRIGGER" is echoed verbatim */
+                   tgdef = PQgetvalue(result, i, 1);
+                   usingpos = strstr(tgdef, " TRIGGER ");
+                   if (usingpos)
+                       tgdef = usingpos + 9;
+
+                   printfPQExpBuffer(&buf, "    %s", tgdef);
+                   printTableAddFooter(&cont, buf.data);
                }
            }
-           PQclear(result);
+       }
+       PQclear(result);
    }
 
    /*
@@ -2052,7 +2051,7 @@ describeOneTableDetails(const char *schemaname,
            }
 
            printfPQExpBuffer(&buf, "Server: %s",
-               PQgetvalue(result, 0, 0));
+                             PQgetvalue(result, 0, 0));
            printTableAddFooter(&cont, buf.data);
            PQclear(result);
        }
@@ -2293,7 +2292,7 @@ describeRoles(const char *pattern, bool verbose)
        }
        if (pset.sversion >= 90100)
        {
-           appendPQExpBufferStr(&buf,"\n, r.rolreplication");
+           appendPQExpBufferStr(&buf, "\n, r.rolreplication");
        }
 
        appendPQExpBufferStr(&buf, "\nFROM pg_catalog.pg_roles r\n");
@@ -2525,8 +2524,8 @@ listTables(const char *tabtypes, const char *pattern, bool verbose, bool showSys
    if (verbose)
    {
        /*
-        * As of PostgreSQL 9.0, use pg_table_size() to show a more acurate size
-        * of a table, including FSM, VM and TOAST tables.
+        * As of PostgreSQL 9.0, use pg_table_size() to show a more acurate
+        * size of a table, including FSM, VM and TOAST tables.
         */
        if (pset.sversion >= 90000)
            appendPQExpBuffer(&buf,
@@ -2622,7 +2621,7 @@ bool
 listLanguages(const char *pattern, bool verbose, bool showSystem)
 {
    PQExpBufferData buf;
-   PGresult *res;
+   PGresult   *res;
    printQueryOpt myopt = pset.popt;
 
    initPQExpBuffer(&buf);
@@ -2631,9 +2630,9 @@ listLanguages(const char *pattern, bool verbose, bool showSystem)
                      "SELECT l.lanname AS \"%s\",\n",
                      gettext_noop("Name"));
    if (pset.sversion >= 80300)
-           appendPQExpBuffer(&buf,
-                             "       pg_catalog.pg_get_userbyid(l.lanowner) as \"%s\",\n",
-                             gettext_noop("Owner"));
+       appendPQExpBuffer(&buf,
+               "       pg_catalog.pg_get_userbyid(l.lanowner) as \"%s\",\n",
+                         gettext_noop("Owner"));
 
    appendPQExpBuffer(&buf,
                      "       l.lanpltrusted AS \"%s\"",
@@ -2641,17 +2640,17 @@ listLanguages(const char *pattern, bool verbose, bool showSystem)
 
    if (verbose)
    {
-           appendPQExpBuffer(&buf,
-                             ",\n       NOT l.lanispl AS \"%s\",\n"
-                             "       l.lanplcallfoid::regprocedure AS \"%s\",\n"
-                             "       l.lanvalidator::regprocedure AS \"%s\",\n       ",
-                             gettext_noop("Internal Language"),
-                             gettext_noop("Call Handler"),
-                             gettext_noop("Validator"));
-           if (pset.sversion >= 90000)
-               appendPQExpBuffer(&buf, "l.laninline::regprocedure AS \"%s\",\n       ",
-                                 gettext_noop("Inline Handler"));
-           printACLColumn(&buf, "l.lanacl");
+       appendPQExpBuffer(&buf,
+                         ",\n       NOT l.lanispl AS \"%s\",\n"
+                         "       l.lanplcallfoid::regprocedure AS \"%s\",\n"
+                  "       l.lanvalidator::regprocedure AS \"%s\",\n       ",
+                         gettext_noop("Internal Language"),
+                         gettext_noop("Call Handler"),
+                         gettext_noop("Validator"));
+       if (pset.sversion >= 90000)
+           appendPQExpBuffer(&buf, "l.laninline::regprocedure AS \"%s\",\n       ",
+                             gettext_noop("Inline Handler"));
+       printACLColumn(&buf, "l.lanacl");
    }
 
    appendPQExpBuffer(&buf,
@@ -2907,11 +2906,11 @@ listCollations(const char *pattern, bool verbose, bool showSystem)
 
    if (verbose)
        appendPQExpBuffer(&buf,
-         ",\n       pg_catalog.obj_description(c.oid, 'pg_collation') AS \"%s\"",
+                         ",\n       pg_catalog.obj_description(c.oid, 'pg_collation') AS \"%s\"",
                          gettext_noop("Description"));
 
    appendPQExpBuffer(&buf,
-                     "\nFROM pg_catalog.pg_collation c, pg_catalog.pg_namespace n\n"
+             "\nFROM pg_catalog.pg_collation c, pg_catalog.pg_namespace n\n"
                      "WHERE n.oid = c.collnamespace\n");
 
    if (!showSystem && !pattern)
@@ -2981,7 +2980,7 @@ listSchemas(const char *pattern, bool verbose, bool showSystem)
 
    if (!showSystem && !pattern)
        appendPQExpBuffer(&buf,
-                         "WHERE n.nspname !~ '^pg_' AND n.nspname <> 'information_schema'\n");
+       "WHERE n.nspname !~ '^pg_' AND n.nspname <> 'information_schema'\n");
 
    processSQLNamePattern(pset.db, &buf, pattern,
                          !showSystem && !pattern, false,
@@ -3838,11 +3837,11 @@ listExtensions(const char *pattern)
    initPQExpBuffer(&buf);
    printfPQExpBuffer(&buf,
                      "SELECT e.extname AS \"%s\", "
-                     "e.extversion AS \"%s\", n.nspname AS \"%s\", c.description AS \"%s\"\n"
+    "e.extversion AS \"%s\", n.nspname AS \"%s\", c.description AS \"%s\"\n"
                      "FROM pg_catalog.pg_extension e "
-                     "LEFT JOIN pg_catalog.pg_namespace n ON n.oid = e.extnamespace "
-                     "LEFT JOIN pg_catalog.pg_description c ON c.objoid = e.oid "
-                     "AND c.classoid = 'pg_catalog.pg_extension'::pg_catalog.regclass\n",
+            "LEFT JOIN pg_catalog.pg_namespace n ON n.oid = e.extnamespace "
+                "LEFT JOIN pg_catalog.pg_description c ON c.objoid = e.oid "
+        "AND c.classoid = 'pg_catalog.pg_extension'::pg_catalog.regclass\n",
                      gettext_noop("Name"),
                      gettext_noop("Version"),
                      gettext_noop("Schema"),
@@ -3954,7 +3953,7 @@ listOneExtensionContents(const char *extname, const char *oid)
 
    initPQExpBuffer(&buf);
    printfPQExpBuffer(&buf,
-                     "SELECT pg_catalog.pg_describe_object(classid, objid, 0) AS \"%s\"\n"
+       "SELECT pg_catalog.pg_describe_object(classid, objid, 0) AS \"%s\"\n"
                      "FROM pg_catalog.pg_depend\n"
                      "WHERE refclassid = 'pg_catalog.pg_extension'::pg_catalog.regclass AND refobjid = '%s' AND deptype = 'e'\n"
                      "ORDER BY 1;",
index 994c05373f0aa5b8863a8a94f1736470566b75b7..3ef2fa421db150eb84484f292b41dee3d4a6059a 100644 (file)
@@ -629,7 +629,7 @@ static const pgsql_thing_t words_after_create[] = {
    {"INDEX", NULL, &Query_for_list_of_indexes},
    {"OPERATOR", NULL, NULL},   /* Querying for this is probably not such a
                                 * good idea. */
-   {"OWNED", NULL, NULL, THING_NO_CREATE}, /* for DROP OWNED BY ... */
+   {"OWNED", NULL, NULL, THING_NO_CREATE},     /* for DROP OWNED BY ... */
    {"PARSER", Query_for_list_of_ts_parsers, NULL, THING_NO_SHOW},
    {"ROLE", Query_for_list_of_roles},
    {"RULE", "SELECT pg_catalog.quote_ident(rulename) FROM pg_catalog.pg_rules WHERE substring(pg_catalog.quote_ident(rulename),1,%d)='%s'"},
@@ -638,17 +638,18 @@ static const pgsql_thing_t words_after_create[] = {
    {"SERVER", Query_for_list_of_servers},
    {"TABLE", NULL, &Query_for_list_of_tables},
    {"TABLESPACE", Query_for_list_of_tablespaces},
-   {"TEMP", NULL, NULL, THING_NO_DROP},    /* for CREATE TEMP TABLE ... */
+   {"TEMP", NULL, NULL, THING_NO_DROP},        /* for CREATE TEMP TABLE ... */
    {"TEMPLATE", Query_for_list_of_ts_templates, NULL, THING_NO_SHOW},
    {"TEXT SEARCH", NULL, NULL},
    {"TRIGGER", "SELECT pg_catalog.quote_ident(tgname) FROM pg_catalog.pg_trigger WHERE substring(pg_catalog.quote_ident(tgname),1,%d)='%s'"},
    {"TYPE", NULL, &Query_for_list_of_datatypes},
-   {"UNIQUE", NULL, NULL, THING_NO_DROP},  /* for CREATE UNIQUE INDEX ... */
-   {"UNLOGGED", NULL, NULL, THING_NO_DROP},/* for CREATE UNLOGGED TABLE ... */
+   {"UNIQUE", NULL, NULL, THING_NO_DROP},      /* for CREATE UNIQUE INDEX ... */
+   {"UNLOGGED", NULL, NULL, THING_NO_DROP},    /* for CREATE UNLOGGED TABLE
+                                                * ... */
    {"USER", Query_for_list_of_roles},
    {"USER MAPPING FOR", NULL, NULL},
    {"VIEW", NULL, &Query_for_list_of_views},
-   {NULL}  /* end of list */
+   {NULL}                      /* end of list */
 };
 
 
@@ -663,7 +664,7 @@ static char *_complete_from_query(int is_schema_query,
 static char *complete_from_list(const char *text, int state);
 static char *complete_from_const(const char *text, int state);
 static char **complete_from_variables(char *text,
-                                     const char *prefix, const char *suffix);
+                       const char *prefix, const char *suffix);
 
 static PGresult *exec_query(const char *query);
 
@@ -806,11 +807,11 @@ psql_completion(char *text, int start, int end)
    {
        static const char *const list_ALTER[] =
        {"AGGREGATE", "COLLATION", "CONVERSION", "DATABASE", "DEFAULT PRIVILEGES", "DOMAIN",
-        "EXTENSION", "FOREIGN DATA WRAPPER", "FOREIGN TABLE", "FUNCTION",
-        "GROUP", "INDEX", "LANGUAGE", "LARGE OBJECT", "OPERATOR",
-        "ROLE", "SCHEMA", "SERVER", "SEQUENCE", "TABLE",
-        "TABLESPACE", "TEXT SEARCH", "TRIGGER", "TYPE",
-        "USER", "USER MAPPING FOR", "VIEW", NULL};
+           "EXTENSION", "FOREIGN DATA WRAPPER", "FOREIGN TABLE", "FUNCTION",
+           "GROUP", "INDEX", "LANGUAGE", "LARGE OBJECT", "OPERATOR",
+           "ROLE", "SCHEMA", "SERVER", "SEQUENCE", "TABLE",
+           "TABLESPACE", "TEXT SEARCH", "TRIGGER", "TYPE",
+       "USER", "USER MAPPING FOR", "VIEW", NULL};
 
        COMPLETE_WITH_LIST(list_ALTER);
    }
@@ -1137,7 +1138,7 @@ psql_completion(char *text, int start, int end)
    {
        static const char *const list_ALTER2[] =
        {"ADD", "ALTER", "CLUSTER ON", "DISABLE", "DROP", "ENABLE", "INHERIT",
-       "NO INHERIT", "RENAME", "RESET", "OWNER TO", "SET",
+           "NO INHERIT", "RENAME", "RESET", "OWNER TO", "SET",
        "VALIDATE CONSTRAINT", NULL};
 
        COMPLETE_WITH_LIST(list_ALTER2);
@@ -1423,7 +1424,7 @@ psql_completion(char *text, int start, int end)
    {
        static const char *const list_ALTERTYPE[] =
        {"ADD ATTRIBUTE", "ADD VALUE", "ALTER ATTRIBUTE", "DROP ATTRIBUTE",
-        "OWNER TO", "RENAME", "SET SCHEMA", NULL};
+       "OWNER TO", "RENAME", "SET SCHEMA", NULL};
 
        COMPLETE_WITH_LIST(list_ALTERTYPE);
    }
@@ -1437,7 +1438,7 @@ psql_completion(char *text, int start, int end)
 
        COMPLETE_WITH_LIST(list_ALTERTYPE);
    }
-   /* ALTER TYPE <foo> RENAME  */
+   /* ALTER TYPE <foo> RENAME  */
    else if (pg_strcasecmp(prev4_wd, "ALTER") == 0 &&
             pg_strcasecmp(prev3_wd, "TYPE") == 0 &&
             pg_strcasecmp(prev_wd, "RENAME") == 0)
@@ -1453,7 +1454,10 @@ psql_completion(char *text, int start, int end)
             pg_strcasecmp(prev2_wd, "ATTRIBUTE") == 0)
        COMPLETE_WITH_CONST("TO");
 
-   /* If we have TYPE <sth> ALTER/DROP/RENAME ATTRIBUTE, provide list of attributes */
+   /*
+    * If we have TYPE <sth> ALTER/DROP/RENAME ATTRIBUTE, provide list of
+    * attributes
+    */
    else if (pg_strcasecmp(prev4_wd, "TYPE") == 0 &&
             (pg_strcasecmp(prev2_wd, "ALTER") == 0 ||
              pg_strcasecmp(prev2_wd, "DROP") == 0 ||
@@ -2193,7 +2197,7 @@ psql_completion(char *text, int start, int end)
    else if (pg_strcasecmp(prev3_wd, "CREATE") != 0 &&
             pg_strcasecmp(prev2_wd, "FOREIGN") == 0 &&
             pg_strcasecmp(prev_wd, "TABLE") == 0)
-        COMPLETE_WITH_SCHEMA_QUERY(Query_for_list_of_foreign_tables, NULL);
+       COMPLETE_WITH_SCHEMA_QUERY(Query_for_list_of_foreign_tables, NULL);
 
 /* GRANT && REVOKE */
    /* Complete GRANT/REVOKE with a list of privileges */
@@ -2454,7 +2458,8 @@ psql_completion(char *text, int start, int end)
             pg_strcasecmp(prev_wd, "LABEL") == 0)
    {
        static const char *const list_SECURITY_LABEL_preposition[] =
-           {"ON", "FOR"};
+       {"ON", "FOR"};
+
        COMPLETE_WITH_LIST(list_SECURITY_LABEL_preposition);
    }
    else if (pg_strcasecmp(prev4_wd, "SECURITY") == 0 &&
@@ -2464,14 +2469,14 @@ psql_completion(char *text, int start, int end)
    else if ((pg_strcasecmp(prev3_wd, "SECURITY") == 0 &&
              pg_strcasecmp(prev2_wd, "LABEL") == 0 &&
              pg_strcasecmp(prev_wd, "ON") == 0) ||
-            (pg_strcasecmp(prev5_wd, "SECURITY") == 0 &&
+            (pg_strcasecmp(prev5_wd, "SECURITY") == 0 &&
              pg_strcasecmp(prev4_wd, "LABEL") == 0 &&
              pg_strcasecmp(prev3_wd, "FOR") == 0 &&
              pg_strcasecmp(prev_wd, "ON") == 0))
    {
        static const char *const list_SECURITY_LABEL[] =
        {"LANGUAGE", "SCHEMA", "SEQUENCE", "TABLE", "TYPE", "VIEW", "COLUMN",
-        "AGGREGATE", "FUNCTION", "DOMAIN", "LARGE OBJECT",
+           "AGGREGATE", "FUNCTION", "DOMAIN", "LARGE OBJECT",
        NULL};
 
        COMPLETE_WITH_LIST(list_SECURITY_LABEL);
@@ -2847,15 +2852,15 @@ psql_completion(char *text, int start, int end)
        if (strcmp(prev_wd, "format") == 0)
        {
            static const char *const my_list[] =
-               {"unaligned", "aligned", "wrapped", "html", "latex", 
-                   "troff-ms", NULL};
+           {"unaligned", "aligned", "wrapped", "html", "latex",
+           "troff-ms", NULL};
 
            COMPLETE_WITH_LIST(my_list);
        }
        else if (strcmp(prev_wd, "linestyle") == 0)
        {
            static const char *const my_list[] =
-               {"ascii", "old-ascii", "unicode", NULL};
+           {"ascii", "old-ascii", "unicode", NULL};
 
            COMPLETE_WITH_LIST(my_list);
        }
@@ -3305,13 +3310,13 @@ complete_from_variables(char *text, const char *prefix, const char *suffix)
 
    for (ptr = pset.vars->next; ptr; ptr = ptr->next)
    {
-       char   *buffer;
+       char       *buffer;
 
        if (nvars >= maxvars)
        {
            maxvars *= 2;
            varnames = (const char **) realloc(varnames,
-                                              (maxvars + 1) * sizeof(char *));
+                                            (maxvars + 1) * sizeof(char *));
            if (!varnames)
            {
                psql_error("out of memory\n");
index 83c1b531c7100c5e9bd8643be94593cb5eca6928..7fadee0d51374e2a9ff78c1ee481a20e4b32b62e 100644 (file)
@@ -195,8 +195,8 @@ main(int argc, char *argv[])
    PQclear(result);
 
    /*
-    * Attempt to drop the language.  We do not use CASCADE, so that
-    * the drop will fail if there are any functions in the language.
+    * Attempt to drop the language.  We do not use CASCADE, so that the drop
+    * will fail if there are any functions in the language.
     */
    printfPQExpBuffer(&sql, "DROP EXTENSION \"%s\";\n", langname);
 
index cf9603c7c44bf6d15aac3b6cdf4f7b40d23fe8a8..31e9733546aad13f2884ed82ac09fb179dc882c1 100644 (file)
@@ -39,9 +39,9 @@
 typedef struct GinStatsData
 {
    BlockNumber nPendingPages;
-   BlockNumber nTotalPages;
-   BlockNumber nEntryPages;
-   BlockNumber nDataPages;
+   BlockNumber nTotalPages;
+   BlockNumber nEntryPages;
+   BlockNumber nDataPages;
    int64       nEntries;
    int32       ginVersion;
 } GinStatsData;
index 6381bffb21617b306a12cfb0046a28bc18015f68..74c1098458c2e5108e95507e6da00ca98b5534c6 100644 (file)
@@ -73,14 +73,14 @@ typedef struct GinMetaPageData
    /*
     * Statistics for planner use (accurate as of last VACUUM)
     */
-   BlockNumber nTotalPages;
-   BlockNumber nEntryPages;
-   BlockNumber nDataPages;
+   BlockNumber nTotalPages;
+   BlockNumber nEntryPages;
+   BlockNumber nDataPages;
    int64       nEntries;
 
    /*
-    * GIN version number (ideally this should have been at the front, but
-    * too late now.  Don't move it!)
+    * GIN version number (ideally this should have been at the front, but too
+    * late now.  Don't move it!)
     *
     * Currently 1 (for indexes initialized in 9.1 or later)
     *
@@ -207,7 +207,7 @@ typedef signed char GinNullCategory;
 #define GinGetPostingTree(itup) GinItemPointerGetBlockNumber(&(itup)->t_tid)
 
 #define GinGetPostingOffset(itup)  GinItemPointerGetBlockNumber(&(itup)->t_tid)
-#define GinSetPostingOffset(itup,n)    ItemPointerSetBlockNumber(&(itup)->t_tid,n)
+#define GinSetPostingOffset(itup,n) ItemPointerSetBlockNumber(&(itup)->t_tid,n)
 #define GinGetPosting(itup)            ((ItemPointer) ((char*)(itup) + GinGetPostingOffset(itup)))
 
 #define GinMaxItemSize \
@@ -427,12 +427,12 @@ extern Buffer GinNewBuffer(Relation index);
 extern void GinInitBuffer(Buffer b, uint32 f);
 extern void GinInitPage(Page page, uint32 f, Size pageSize);
 extern void GinInitMetabuffer(Buffer b);
-extern int ginCompareEntries(GinState *ginstate, OffsetNumber attnum,
-                             Datum a, GinNullCategory categorya,
-                             Datum b, GinNullCategory categoryb);
-extern int ginCompareAttEntries(GinState *ginstate,
+extern int ginCompareEntries(GinState *ginstate, OffsetNumber attnum,
+                 Datum a, GinNullCategory categorya,
+                 Datum b, GinNullCategory categoryb);
+extern int ginCompareAttEntries(GinState *ginstate,
                     OffsetNumber attnuma, Datum a, GinNullCategory categorya,
-                    OffsetNumber attnumb, Datum b, GinNullCategory categoryb);
+                  OffsetNumber attnumb, Datum b, GinNullCategory categoryb);
 extern Datum *ginExtractEntries(GinState *ginstate, OffsetNumber attnum,
                  Datum value, bool isNull,
                  int32 *nentries, GinNullCategory **categories);
@@ -508,7 +508,7 @@ extern GinBtreeStack *ginPrepareFindLeafPage(GinBtree btree, BlockNumber blkno);
 extern GinBtreeStack *ginFindLeafPage(GinBtree btree, GinBtreeStack *stack);
 extern void freeGinBtreeStack(GinBtreeStack *stack);
 extern void ginInsertValue(GinBtree btree, GinBtreeStack *stack,
-                          GinStatsData *buildStats);
+              GinStatsData *buildStats);
 extern void ginFindParents(GinBtree btree, GinBtreeStack *stack, BlockNumber rootBlkno);
 
 /* ginentrypage.c */
@@ -525,8 +525,8 @@ extern IndexTuple ginPageGetLinkItup(Buffer buf);
 /* gindatapage.c */
 extern int ginCompareItemPointers(ItemPointer a, ItemPointer b);
 extern uint32 ginMergeItemPointers(ItemPointerData *dst,
-                 ItemPointerData *a, uint32 na,
-                 ItemPointerData *b, uint32 nb);
+                    ItemPointerData *a, uint32 na,
+                    ItemPointerData *b, uint32 nb);
 
 extern void GinDataPageAddItem(Page page, void *data, OffsetNumber offset);
 extern void GinPageDeletePostingItem(Page page, OffsetNumber offset);
@@ -538,10 +538,10 @@ typedef struct
 } GinPostingTreeScan;
 
 extern GinPostingTreeScan *ginPrepareScanPostingTree(Relation index,
-                      BlockNumber rootBlkno, bool searchMode);
+                         BlockNumber rootBlkno, bool searchMode);
 extern void ginInsertItemPointers(GinPostingTreeScan *gdi,
-                                 ItemPointerData *items, uint32 nitem,
-                                 GinStatsData *buildStats);
+                     ItemPointerData *items, uint32 nitem,
+                     GinStatsData *buildStats);
 extern Buffer ginScanBeginPostingTree(GinPostingTreeScan *gdi);
 extern void ginDataFillRoot(GinBtree btree, Buffer root, Buffer lbuf, Buffer rbuf);
 extern void ginPrepareDataScan(GinBtree btree, Relation index);
@@ -561,7 +561,7 @@ extern void ginPrepareDataScan(GinBtree btree, Relation index);
  *
  * In each GinScanKeyData, nentries is the true number of entries, while
  * nuserentries is the number that extractQueryFn returned (which is what
- * we report to consistentFn).  The "user" entries must come first.
+ * we report to consistentFn). The "user" entries must come first.
  */
 typedef struct GinScanKeyData *GinScanKey;
 
@@ -591,17 +591,17 @@ typedef struct GinScanKeyData
    OffsetNumber attnum;
 
    /*
-    * Match status data.  curItem is the TID most recently tested (could be
-    * lossy-page pointer).  curItemMatches is TRUE if it passes the
+    * Match status data.  curItem is the TID most recently tested (could be a
+    * lossy-page pointer).  curItemMatches is TRUE if it passes the
     * consistentFn test; if so, recheckCurItem is the recheck flag.
-    * isFinished means that all the input entry streams are finished, so
-    * this key cannot succeed for any later TIDs.
+    * isFinished means that all the input entry streams are finished, so this
+    * key cannot succeed for any later TIDs.
     */
    ItemPointerData curItem;
    bool        curItemMatches;
    bool        recheckCurItem;
    bool        isFinished;
-} GinScanKeyData;
+}  GinScanKeyData;
 
 typedef struct GinScanEntryData
 {
@@ -633,7 +633,7 @@ typedef struct GinScanEntryData
    bool        isFinished;
    bool        reduceResult;
    uint32      predictNumberResult;
-} GinScanEntryData;
+}  GinScanEntryData;
 
 typedef struct GinScanOpaqueData
 {
index 230e138f0888e9d358b41b2b333f8ae4bcf590b9..df9f39c7b8932455959badc0ba08e48bda82295d 100644 (file)
@@ -53,7 +53,7 @@
 #define RTOverAboveStrategyNumber      12
 #define RTOldContainsStrategyNumber        13      /* for old spelling of @> */
 #define RTOldContainedByStrategyNumber 14      /* for old spelling of <@ */
-#define RTKNNSearchStrategyNumber      15
+#define RTKNNSearchStrategyNumber      15
 
 /*
  * Page opaque data in a GiST index page.
index 70638705c28bb50fcf8e2401bb77fdf7b62ddd2d..ecc188f7df78189a66e5f264a50bef25f346517a 100644 (file)
@@ -79,13 +79,13 @@ typedef struct GISTSearchItem
    BlockNumber blkno;          /* index page number, or InvalidBlockNumber */
    union
    {
-       GistNSN     parentlsn;      /* parent page's LSN, if index page */
+       GistNSN     parentlsn;  /* parent page's LSN, if index page */
        /* we must store parentlsn to detect whether a split occurred */
        GISTSearchHeapItem heap;    /* heap info, if heap tuple */
    }           data;
-}  GISTSearchItem;
+} GISTSearchItem;
 
-#define GISTSearchItemIsHeap(item)  ((item).blkno == InvalidBlockNumber)
+#define GISTSearchItemIsHeap(item) ((item).blkno == InvalidBlockNumber)
 
 /*
  * Within a GISTSearchTreeItem's chain, heap items always appear before
@@ -132,9 +132,9 @@ typedef GISTScanOpaqueData *GISTScanOpaque;
 /* XLog stuff */
 
 #define XLOG_GIST_PAGE_UPDATE      0x00
-/* #define XLOG_GIST_NEW_ROOT          0x20 */ /* not used anymore */
+ /* #define XLOG_GIST_NEW_ROOT          0x20 */    /* not used anymore */
 #define XLOG_GIST_PAGE_SPLIT       0x30
-/* #define XLOG_GIST_INSERT_COMPLETE   0x40 */ /* not used anymore */
+ /* #define XLOG_GIST_INSERT_COMPLETE   0x40 */    /* not used anymore */
 #define XLOG_GIST_CREATE_INDEX     0x50
 #define XLOG_GIST_PAGE_DELETE      0x60
 
@@ -147,7 +147,7 @@ typedef struct gistxlogPageUpdate
     * If this operation completes a page split, by inserting a downlink for
     * the split page, leftchild points to the left half of the split.
     */
-   BlockNumber leftchild;
+   BlockNumber leftchild;
 
    /* number of deleted offsets */
    uint16      ntodelete;
@@ -161,7 +161,7 @@ typedef struct gistxlogPageSplit
 {
    RelFileNode node;
    BlockNumber origblkno;      /* splitted page */
-   BlockNumber origrlink;      /* rightlink of the page before split */
+   BlockNumber origrlink;      /* rightlink of the page before split */
    GistNSN     orignsn;        /* NSN of the page before split */
    bool        origleaf;       /* was splitted page a leaf page? */
 
@@ -210,8 +210,8 @@ typedef struct GISTInsertStack
    Page        page;
 
    /*
-    * log sequence number from page->lsn to recognize page update and
-    * compare it with page's nsn to recognize page split
+    * log sequence number from page->lsn to recognize page update and compare
+    * it with page's nsn to recognize page split
     */
    GistNSN     lsn;
 
@@ -300,7 +300,7 @@ extern void gist_xlog_cleanup(void);
 
 extern XLogRecPtr gistXLogUpdate(RelFileNode node, Buffer buffer,
               OffsetNumber *todelete, int ntodelete,
-                                IndexTuple *itup, int ntup,
+              IndexTuple *itup, int ntup,
               Buffer leftchild);
 
 extern XLogRecPtr gistXLogSplit(RelFileNode node,
index 6951dfb0100b6b37ff66396a4682fc23dfae4117..6b661a3e87013cf404518b1cf5c2fd1c781a0fc0 100644 (file)
@@ -31,13 +31,13 @@ typedef struct BulkInsertStateData
 {
    BufferAccessStrategy strategy;      /* our BULKWRITE strategy object */
    Buffer      current_buf;    /* current insertion target page */
-} BulkInsertStateData;
+}  BulkInsertStateData;
 
 
 extern void RelationPutHeapTuple(Relation relation, Buffer buffer,
                     HeapTuple tuple);
 extern Buffer RelationGetBufferForTuple(Relation relation, Size len,
                          Buffer otherBuffer, int options,
-                         struct BulkInsertStateData *bistate);
+                         struct BulkInsertStateData * bistate);
 
 #endif   /* HIO_H */
index 0e626e8469cd67973cfaccc38d3af511eed30ea2..c1477071697f74ea845db8d0816841baae58c91a 100644 (file)
@@ -201,7 +201,7 @@ typedef HeapTupleHeaderData *HeapTupleHeader;
  * any visibility information, so we can overlay it on a visibility flag
  * instead of using up a dedicated bit.
  */
-#define HEAP_TUPLE_HAS_MATCH   HEAP_ONLY_TUPLE /* tuple has a join match */
+#define HEAP_TUPLE_HAS_MATCH   HEAP_ONLY_TUPLE /* tuple has a join match */
 
 /*
  * HeapTupleHeader accessor macros
index cab71939648131d79ab52bd75a8b86e10eca87d3..29247068fd2b437515d7784907e79ef61813ab06 100644 (file)
@@ -55,7 +55,7 @@ typedef IndexTupleData *IndexTuple;
 typedef struct IndexAttributeBitMapData
 {
    bits8       bits[(INDEX_MAX_KEYS + 8 - 1) / 8];
-} IndexAttributeBitMapData;
+}  IndexAttributeBitMapData;
 
 typedef IndexAttributeBitMapData *IndexAttributeBitMap;
 
index f703280b272f1d9f30f5ad0ab269d5fc03596922..7663033723b413c0fb6c035a5b9f68e4e9d815cf 100644 (file)
@@ -50,7 +50,7 @@ typedef struct HeapScanDescData
    int         rs_mindex;      /* marked tuple's saved index */
    int         rs_ntuples;     /* number of visible tuples on page */
    OffsetNumber rs_vistuples[MaxHeapTuplesPerPage];    /* their offsets */
-} HeapScanDescData;
+}  HeapScanDescData;
 
 /*
  * We use the same IndexScanDescData structure for both amgettuple-based
@@ -64,9 +64,9 @@ typedef struct IndexScanDescData
    Relation    indexRelation;  /* index relation descriptor */
    Snapshot    xs_snapshot;    /* snapshot to see */
    int         numberOfKeys;   /* number of index qualifier conditions */
-   int         numberOfOrderBys;   /* number of ordering operators */
-   ScanKey     keyData;            /* array of index qualifier descriptors */
-   ScanKey     orderByData;        /* array of ordering op descriptors */
+   int         numberOfOrderBys;       /* number of ordering operators */
+   ScanKey     keyData;        /* array of index qualifier descriptors */
+   ScanKey     orderByData;    /* array of ordering op descriptors */
 
    /* signaling to index AM about killing index tuples */
    bool        kill_prior_tuple;       /* last-returned tuple is dead */
@@ -87,7 +87,7 @@ typedef struct IndexScanDescData
    bool        xs_hot_dead;    /* T if all members of HOT chain are dead */
    OffsetNumber xs_next_hot;   /* next member of HOT chain, if any */
    TransactionId xs_prev_xmax; /* previous HOT chain member's XMAX, if any */
-} IndexScanDescData;
+}  IndexScanDescData;
 
 /* Struct for heap-or-index scans of system tables */
 typedef struct SysScanDescData
@@ -96,6 +96,6 @@ typedef struct SysScanDescData
    Relation    irel;           /* NULL if doing heap scan */
    HeapScanDesc scan;          /* only valid in heap-scan case */
    IndexScanDesc iscan;        /* only valid in index-scan case */
-} SysScanDescData;
+}  SysScanDescData;
 
 #endif   /* RELSCAN_H */
index fb8ee0ad4fd92e5e85b993586f8f2423cf100929..99448efe12fdbef7d86a6998ffca1e92ae3bf6cd 100644 (file)
@@ -115,8 +115,8 @@ extern void TupleDescInitEntry(TupleDesc desc,
                   int attdim);
 
 extern void TupleDescInitEntryCollation(TupleDesc desc,
-                                       AttrNumber attributeNumber,
-                                       Oid collationid);
+                           AttrNumber attributeNumber,
+                           Oid collationid);
 
 extern TupleDesc BuildDescForRelation(List *schema);
 
index 8b60e8f163581eaca7a8b188c264a056afb93b43..cb440d41f1401f69698481e2c175eb903f879fed 100644 (file)
@@ -54,13 +54,13 @@ extern bool XactDeferrable;
 
 typedef enum
 {
-   SYNCHRONOUS_COMMIT_OFF,         /* asynchronous commit */
-   SYNCHRONOUS_COMMIT_LOCAL_FLUSH, /* wait for local flush only */
-   SYNCHRONOUS_COMMIT_REMOTE_FLUSH /* wait for local and remote flush */
-} SyncCommitLevel;
+   SYNCHRONOUS_COMMIT_OFF,     /* asynchronous commit */
+   SYNCHRONOUS_COMMIT_LOCAL_FLUSH,     /* wait for local flush only */
+   SYNCHRONOUS_COMMIT_REMOTE_FLUSH     /* wait for local and remote flush */
+}  SyncCommitLevel;
 
 /* Define the default setting for synchonous_commit */
-#define SYNCHRONOUS_COMMIT_ON  SYNCHRONOUS_COMMIT_REMOTE_FLUSH
+#define SYNCHRONOUS_COMMIT_ON  SYNCHRONOUS_COMMIT_REMOTE_FLUSH
 
 /* Synchronous commit level */
 extern int synchronous_commit;
index 7e9bad6e3a42a6d5d43eabb39a0fa78665d79059..7056fd618913b281d917cb888d274200002ffb01 100644 (file)
@@ -259,12 +259,12 @@ typedef struct CheckpointStatsData
    int         ckpt_segs_removed;      /* # of xlog segments deleted */
    int         ckpt_segs_recycled;     /* # of xlog segments recycled */
 
-   int         ckpt_sync_rels;     /* # of relations synced */
-   uint64      ckpt_longest_sync;  /* Longest sync for one relation */
-   uint64      ckpt_agg_sync_time; /* The sum of all the individual sync
-                                    * times, which is not necessarily the
-                                    * same as the total elapsed time for
-                                    * the entire sync phase. */
+   int         ckpt_sync_rels; /* # of relations synced */
+   uint64      ckpt_longest_sync;      /* Longest sync for one relation */
+   uint64      ckpt_agg_sync_time;     /* The sum of all the individual sync
+                                        * times, which is not necessarily the
+                                        * same as the total elapsed time for
+                                        * the entire sync phase. */
 } CheckpointStatsData;
 
 extern CheckpointStatsData CheckpointStats;
index 2982a4799cd6c7987038da25f021ff80a381181f..6530df06acaab499bb66e689250787b64ab0781c 100644 (file)
@@ -88,7 +88,7 @@ typedef uint32 TimeLineID;
  * read those buffers except during crash recovery or if wal_level != minimal,
  * it is a win to use it in all cases where we sync on each write().  We could
  * allow O_DIRECT with fsync(), but it is unclear if fsync() could process
- * writes not buffered in the kernel.  Also, O_DIRECT is never enough to force
+ * writes not buffered in the kernel.  Also, O_DIRECT is never enough to force
  * data to the drives, it merely tries to bypass the kernel cache, so we still
  * need O_SYNC/O_DSYNC.
  */
index bb3aa781f2b85df9f64eadb6b05914c933e94e95..e4f1535db3adc5edcb687686c8075ca6e173a906 100644 (file)
 
 extern const char *forkNames[];
 extern ForkNumber forkname_to_number(char *forkName);
-extern int forkname_chars(const char *str, ForkNumber *);
+extern int forkname_chars(const char *str, ForkNumber *);
 
 extern char *relpathbackend(RelFileNode rnode, BackendId backend,
-             ForkNumber forknum);
+              ForkNumber forknum);
 extern char *GetDatabasePath(Oid dbNode, Oid spcNode);
 
 /* First argument is a RelFileNodeBackend */
@@ -55,7 +55,7 @@ extern bool IsSharedRelation(Oid relationId);
 extern Oid GetNewOid(Relation relation);
 extern Oid GetNewOidWithIndex(Relation relation, Oid indexId,
                   AttrNumber oidcolumn);
-extern Oid GetNewRelFileNode(Oid reltablespace, Relation pg_class,
+extern Oid GetNewRelFileNode(Oid reltablespace, Relation pg_class,
                  char relpersistence);
 
 #endif   /* CATALOG_H */
index 582294c6b3b2fb15af51460471ffdcb7cb9e2755..a3bd729156f796ec3cf544e6c4b728e448ba4e55 100644 (file)
@@ -146,7 +146,7 @@ typedef enum ObjectClass
    OCLASS_FOREIGN_SERVER,      /* pg_foreign_server */
    OCLASS_USER_MAPPING,        /* pg_user_mapping */
    OCLASS_DEFACL,              /* pg_default_acl */
-   OCLASS_EXTENSION,           /* pg_extension */
+   OCLASS_EXTENSION,           /* pg_extension */
    MAX_OCLASS                  /* MUST BE LAST */
 } ObjectClass;
 
@@ -204,7 +204,7 @@ extern void recordMultipleDependencies(const ObjectAddress *depender,
 extern void recordDependencyOnCurrentExtension(const ObjectAddress *object);
 
 extern long deleteDependencyRecordsFor(Oid classId, Oid objectId,
-                                      bool skipExtensionDeps);
+                          bool skipExtensionDeps);
 
 extern long deleteDependencyRecordsForClass(Oid classId, Oid objectId,
                                Oid refclassId, char deptype);
index e72d82eb16638232ca2078e36a43a745c7db5a1a..f59beee80dd77d46df81a5dfe3d20e01cd0a24b0 100644 (file)
@@ -98,7 +98,7 @@ extern Oid    get_namespace_oid(const char *nspname, bool missing_ok);
 
 extern Oid LookupCreationNamespace(const char *nspname);
 extern void CheckSetNamespace(Oid oldNspOid, Oid nspOid, Oid classid,
-                             Oid objid);
+                 Oid objid);
 extern Oid QualifiedNameGetCreationNamespace(List *names, char **objname_p);
 extern RangeVar *makeRangeVarFromNameList(List *names);
 extern char *NameListToString(List *names);
index f1eace251ad8bd3f4962d7bbc996a054778325b2..29254758e751ccdc11b9f0e3d26fa615e81cac94 100644 (file)
@@ -12,7 +12,7 @@
 
 /*
  * Object access hooks are intended to be called just before or just after
- * performing certain actions on a SQL object.  This is intended as
+ * performing certain actions on a SQL object. This is intended as
  * infrastructure for security or logging pluggins.
  *
  * OAT_POST_CREATE should be invoked just after the the object is created.
@@ -30,10 +30,10 @@ typedef enum ObjectAccessType
  * Hook, and a macro to invoke it.
  */
 
-typedef void (*object_access_hook_type)(ObjectAccessType access,
-                                       Oid classId,
-                                       Oid objectId,
-                                       int subId);
+typedef void (*object_access_hook_type) (ObjectAccessType access,
+                                                    Oid classId,
+                                                    Oid objectId,
+                                                    int subId);
 
 extern PGDLLIMPORT object_access_hook_type object_access_hook;
 
@@ -43,4 +43,4 @@ extern PGDLLIMPORT object_access_hook_type object_access_hook;
            (*object_access_hook)((access),(classId),(objectId),(subId)); \
    } while(0)
 
-#endif /* OBJECTACCESS_H */
+#endif   /* OBJECTACCESS_H */
index 566d4fac5dddde94cf90037b6b819077acf402ae..feab4201deb48b636203d6cfba8cb56497527749 100644 (file)
@@ -41,7 +41,7 @@ CATALOG(pg_am,2601)
    int2        amsupport;      /* total number of support functions that this
                                 * AM uses */
    bool        amcanorder;     /* does AM support order by column value? */
-   bool        amcanorderbyop; /* does AM support order by operator result? */
+   bool        amcanorderbyop; /* does AM support order by operator result? */
    bool        amcanbackward;  /* does AM support backward scan? */
    bool        amcanunique;    /* does AM support UNIQUE indexes? */
    bool        amcanmulticol;  /* does AM support multi-column indexes? */
index aabb900ddc94ca092f21befdf8a4ecd63ef4eb07..3b88c41599e77c690e27c7f7344d6c8cebb29876 100644 (file)
@@ -62,7 +62,7 @@ CATALOG(pg_amop,2602)
    char        amoppurpose;    /* is operator for 's'earch or 'o'rdering? */
    Oid         amopopr;        /* the operator's pg_operator OID */
    Oid         amopmethod;     /* the index access method this entry is for */
-   Oid         amopsortfamily; /* ordering opfamily OID, or 0 if search op */
+   Oid         amopsortfamily; /* ordering opfamily OID, or 0 if search op */
 } FormData_pg_amop;
 
 /* allowed values of amoppurpose: */
@@ -581,15 +581,15 @@ DATA(insert ( 627    2277 2277 1 s 1070 405 0 ));
  * gist box_ops
  */
 
-DATA(insert (  2593   603 603 1 s  493 783 0 ));
-DATA(insert (  2593   603 603 2 s  494 783 0 ));
-DATA(insert (  2593   603 603 3 s  500 783 0 ));
-DATA(insert (  2593   603 603 4 s  495 783 0 ));
-DATA(insert (  2593   603 603 5 s  496 783 0 ));
-DATA(insert (  2593   603 603 6 s  499 783 0 ));
-DATA(insert (  2593   603 603 7 s  498 783 0 ));
-DATA(insert (  2593   603 603 8 s  497 783 0 ));
-DATA(insert (  2593   603 603 9 s  2571 783 0 ));
+DATA(insert (  2593   603 603 1 s  493 783 0 ));
+DATA(insert (  2593   603 603 2 s  494 783 0 ));
+DATA(insert (  2593   603 603 3 s  500 783 0 ));
+DATA(insert (  2593   603 603 4 s  495 783 0 ));
+DATA(insert (  2593   603 603 5 s  496 783 0 ));
+DATA(insert (  2593   603 603 6 s  499 783 0 ));
+DATA(insert (  2593   603 603 7 s  498 783 0 ));
+DATA(insert (  2593   603 603 8 s  497 783 0 ));
+DATA(insert (  2593   603 603 9 s  2571 783 0 ));
 DATA(insert (  2593   603 603 10 s 2570 783 0 ));
 DATA(insert (  2593   603 603 11 s 2573 783 0 ));
 DATA(insert (  2593   603 603 12 s 2572 783 0 ));
@@ -600,10 +600,10 @@ DATA(insert ( 2593   603 603 14 s 2862 783 0 ));
  * gist point_ops
  */
 DATA(insert (  1029   600 600 11 s 506 783 0 ));
-DATA(insert (  1029   600 600 1 s  507 783 0 ));
-DATA(insert (  1029   600 600 5 s  508 783 0 ));
+DATA(insert (  1029   600 600 1 s  507 783 0 ));
+DATA(insert (  1029   600 600 5 s  508 783 0 ));
 DATA(insert (  1029   600 600 10 s 509 783 0 ));
-DATA(insert (  1029   600 600 6 s  510 783 0 ));
+DATA(insert (  1029   600 600 6 s  510 783 0 ));
 DATA(insert (  1029   600 600 15 o 517 783 1970 ));
 DATA(insert (  1029   603 600 27 s 433 783 0 ));
 DATA(insert (  1029   600 603 28 s 511 783 0 ));
@@ -617,15 +617,15 @@ DATA(insert ( 1029   600 718 68 s 758 783 0 ));
  * gist poly_ops (supports polygons)
  */
 
-DATA(insert (  2594   604 604 1 s  485 783 0 ));
-DATA(insert (  2594   604 604 2 s  486 783 0 ));
-DATA(insert (  2594   604 604 3 s  492 783 0 ));
-DATA(insert (  2594   604 604 4 s  487 783 0 ));
-DATA(insert (  2594   604 604 5 s  488 783 0 ));
-DATA(insert (  2594   604 604 6 s  491 783 0 ));
-DATA(insert (  2594   604 604 7 s  490 783 0 ));
-DATA(insert (  2594   604 604 8 s  489 783 0 ));
-DATA(insert (  2594   604 604 9 s  2575 783 0 ));
+DATA(insert (  2594   604 604 1 s  485 783 0 ));
+DATA(insert (  2594   604 604 2 s  486 783 0 ));
+DATA(insert (  2594   604 604 3 s  492 783 0 ));
+DATA(insert (  2594   604 604 4 s  487 783 0 ));
+DATA(insert (  2594   604 604 5 s  488 783 0 ));
+DATA(insert (  2594   604 604 6 s  491 783 0 ));
+DATA(insert (  2594   604 604 7 s  490 783 0 ));
+DATA(insert (  2594   604 604 8 s  489 783 0 ));
+DATA(insert (  2594   604 604 9 s  2575 783 0 ));
 DATA(insert (  2594   604 604 10 s 2574 783 0 ));
 DATA(insert (  2594   604 604 11 s 2577 783 0 ));
 DATA(insert (  2594   604 604 12 s 2576 783 0 ));
@@ -636,15 +636,15 @@ DATA(insert ( 2594   604 604 14 s 2860 783 0 ));
  * gist circle_ops
  */
 
-DATA(insert (  2595   718 718 1 s  1506 783 0 ));
-DATA(insert (  2595   718 718 2 s  1507 783 0 ));
-DATA(insert (  2595   718 718 3 s  1513 783 0 ));
-DATA(insert (  2595   718 718 4 s  1508 783 0 ));
-DATA(insert (  2595   718 718 5 s  1509 783 0 ));
-DATA(insert (  2595   718 718 6 s  1512 783 0 ));
-DATA(insert (  2595   718 718 7 s  1511 783 0 ));
-DATA(insert (  2595   718 718 8 s  1510 783 0 ));
-DATA(insert (  2595   718 718 9 s  2589 783 0 ));
+DATA(insert (  2595   718 718 1 s  1506 783 0 ));
+DATA(insert (  2595   718 718 2 s  1507 783 0 ));
+DATA(insert (  2595   718 718 3 s  1513 783 0 ));
+DATA(insert (  2595   718 718 4 s  1508 783 0 ));
+DATA(insert (  2595   718 718 5 s  1509 783 0 ));
+DATA(insert (  2595   718 718 6 s  1512 783 0 ));
+DATA(insert (  2595   718 718 7 s  1511 783 0 ));
+DATA(insert (  2595   718 718 8 s  1510 783 0 ));
+DATA(insert (  2595   718 718 9 s  2589 783 0 ));
 DATA(insert (  2595   718 718 10 s 1515 783 0 ));
 DATA(insert (  2595   718 718 11 s 1514 783 0 ));
 DATA(insert (  2595   718 718 12 s 2590 783 0 ));
index 0c5ae443a0d2818dd11406234a11606cdf1de271..c48d96bcacdd92d397e2bac0aa662a53fb64c179 100644 (file)
@@ -51,7 +51,7 @@ CATALOG(pg_authid,1260) BKI_SHARED_RELATION BKI_ROWTYPE_OID(2842) BKI_SCHEMA_MAC
    bool        rolcreatedb;    /* allowed to create databases? */
    bool        rolcatupdate;   /* allowed to alter catalogs manually? */
    bool        rolcanlogin;    /* allowed to log in as session user? */
-   bool        rolreplication; /* role used for streaming replication */
+   bool        rolreplication; /* role used for streaming replication */
    int4        rolconnlimit;   /* max connections allowed (-1=no limit) */
 
    /* remaining fields may be null; use heap_getattr to read them! */
index e103530a3f24c582fd6643761e2cccdcffad3119..ffcce3c87cc388a327ff14db7f8becf6133f9ae7 100644 (file)
@@ -49,7 +49,7 @@ CATALOG(pg_class,1259) BKI_BOOTSTRAP BKI_ROWTYPE_OID(83) BKI_SCHEMA_MACRO
    Oid         reltoastidxid;  /* if toast table, OID of chunk_id index */
    bool        relhasindex;    /* T if has (or has had) any indexes */
    bool        relisshared;    /* T if shared across databases */
-   char        relpersistence; /* see RELPERSISTENCE_xxx constants below */
+   char        relpersistence; /* see RELPERSISTENCE_xxx constants below */
    char        relkind;        /* see RELKIND_xxx constants below */
    int2        relnatts;       /* number of user attributes */
 
@@ -146,7 +146,7 @@ DESCR("");
 #define          RELKIND_TOASTVALUE      't'       /* for out-of-line values */
 #define          RELKIND_VIEW            'v'       /* view */
 #define          RELKIND_COMPOSITE_TYPE  'c'       /* composite type */
-#define          RELKIND_FOREIGN_TABLE   'f'       /* foreign table */
+#define          RELKIND_FOREIGN_TABLE   'f'       /* foreign table */
 #define          RELKIND_UNCATALOGED     'u'       /* not yet cataloged */
 
 #define          RELPERSISTENCE_PERMANENT  'p'     /* regular table */
index 2ab0c504f65ed9f154165de3c61eb9a5856c8d84..7d6a544a7dbed21a584f499243bcb79247e7ee6b 100644 (file)
@@ -52,7 +52,7 @@ typedef FormData_pg_collation *Form_pg_collation;
  */
 #define Natts_pg_collation             6
 #define Anum_pg_collation_collname     1
-#define Anum_pg_collation_collnamespace    2
+#define Anum_pg_collation_collnamespace 2
 #define Anum_pg_collation_collowner        3
 #define Anum_pg_collation_collencoding 4
 #define Anum_pg_collation_collcollate  5
index 63a9cf2d63eab50bb2a000c557aa88d701ea71bc..df36ee40cb55531688229b7347c18bfd79d6ef5d 100644 (file)
@@ -15,9 +15,9 @@
 #define PG_COLLATION_FN_H
 
 extern Oid CollationCreate(const char *collname, Oid collnamespace,
-                          Oid collowner,
-                          int32 collencoding,
-                          const char *collcollate, const char *collctype);
+               Oid collowner,
+               int32 collencoding,
+               const char *collcollate, const char *collctype);
 extern void RemoveCollationById(Oid collationOid);
 
 #endif   /* PG_COLLATION_FN_H */
index a7967ab5c6fa7824b3926ec0a47e6a8af32f72a7..1566af2973549f7a9b2c9fd8de34b004ca41b105 100644 (file)
@@ -244,8 +244,8 @@ extern void AlterConstraintNamespaces(Oid ownerId, Oid oldNspId,
 extern Oid get_constraint_oid(Oid relid, const char *conname, bool missing_ok);
 
 extern bool check_functional_grouping(Oid relid,
-                                     Index varno, Index varlevelsup,
-                                     List *grouping_columns,
-                                     List **constraintDeps);
+                         Index varno, Index varlevelsup,
+                         List *grouping_columns,
+                         List **constraintDeps);
 
 #endif   /* PG_CONSTRAINT_H */
index fb458acf8311ef60c35452dee24ea12544c3746a..d543ef6e24473054a69f4956b3b8fa683e97bba7 100644 (file)
@@ -45,8 +45,8 @@ typedef struct CheckPoint
    /*
     * Oldest XID still running. This is only needed to initialize hot standby
     * mode from an online checkpoint, so we only bother calculating this for
-    * online checkpoints and only when wal_level is hot_standby. Otherwise it's
-    * set to InvalidTransactionId.
+    * online checkpoints and only when wal_level is hot_standby. Otherwise
+    * it's set to InvalidTransactionId.
     */
    TransactionId oldestActiveXid;
 } CheckPoint;
@@ -59,7 +59,7 @@ typedef struct CheckPoint
 #define XLOG_SWITCH                        0x40
 #define XLOG_BACKUP_END                    0x50
 #define XLOG_PARAMETER_CHANGE          0x60
-#define    XLOG_RESTORE_POINT              0x70
+#define XLOG_RESTORE_POINT             0x70
 
 
 /*
index a0fca30019d5c02d4d63c185b239f298237fe3c2..b95e94ad1bf3d1863021e3e6eb6502f7fbd14972 100644 (file)
@@ -65,6 +65,6 @@ typedef FormData_pg_enum *Form_pg_enum;
 extern void EnumValuesCreate(Oid enumTypeOid, List *vals);
 extern void EnumValuesDelete(Oid enumTypeOid);
 extern void AddEnumLabel(Oid enumTypeOid, const char *newVal,
-                        const char *neighbor, bool newValIsAfter);
+            const char *neighbor, bool newValIsAfter);
 
 #endif   /* PG_ENUM_H */
index 63a1a0711f927125442d25815ab84add5dcf9152..064b9991f087a53aafa366f9997ea6b6dc7a528f 100644 (file)
  *     typedef struct FormData_pg_extension
  * ----------------
  */
-#define ExtensionRelationId    3079
+#define ExtensionRelationId 3079
 
 CATALOG(pg_extension,3079)
 {
    NameData    extname;        /* extension name */
    Oid         extowner;       /* extension owner */
    Oid         extnamespace;   /* namespace of contained objects */
-   bool        extrelocatable; /* if true, allow ALTER EXTENSION SET SCHEMA */
+   bool        extrelocatable; /* if true, allow ALTER EXTENSION SET SCHEMA */
 
    /*
     * VARIABLE LENGTH FIELDS start here.
     *
     * extversion should never be null, but the others can be.
     */
-   text        extversion;         /* extension version name */
-   Oid         extconfig[1];       /* dumpable configuration tables */
+   text        extversion;     /* extension version name */
+   Oid         extconfig[1];   /* dumpable configuration tables */
    text        extcondition[1];    /* WHERE clauses for config tables */
 } FormData_pg_extension;
 
index d8142e12bc88232e9a64e77926e98f0a83b1aa60..9f446a5547ec7633fcea73c91c32acfcfe2552f0 100644 (file)
@@ -35,7 +35,7 @@ CATALOG(pg_index,2610) BKI_WITHOUT_OIDS BKI_SCHEMA_MACRO
    int2        indnatts;       /* number of columns in index */
    bool        indisunique;    /* is this a unique index? */
    bool        indisprimary;   /* is this index for primary key? */
-   bool        indisexclusion; /* is this index for exclusion constraint? */
+   bool        indisexclusion; /* is this index for exclusion constraint? */
    bool        indimmediate;   /* is uniqueness enforced immediately? */
    bool        indisclustered; /* is this the index last clustered by? */
    bool        indisvalid;     /* is this index valid for use by queries? */
index 05a2b0eb0758adcf84c84b8a86d409daf5ac5005..c9332777c1bbb4c5c379c2fb47d76f65b1fe63a3 100644 (file)
@@ -718,7 +718,7 @@ DATA(insert OID = 917 (  "*"       PGNSP PGUID b f f    23  790     790 912   0 int4_mul_c
 DESCR("multiply");
 DATA(insert OID = 918 (  "*"      PGNSP PGUID b f f    21  790     790 914   0 int2_mul_cash - - ));
 DESCR("multiply");
-DATA(insert OID = 3825 ( "/"      PGNSP PGUID b f f    790 790     701   0   0 cash_div_cash - - ));
+DATA(insert OID = 3825 ( "/"      PGNSP PGUID b f f    790 790     701   0   0 cash_div_cash - - ));
 DESCR("divide");
 
 DATA(insert OID = 965 (  "^"      PGNSP PGUID b f f    701  701    701 0 0 dpow - - ));
index 7919a40487f286165fd279643d76f35eca2d94bf..3c183ce7b5fbaf6a765bd4f29dd135a6fbcccdbf 100644 (file)
@@ -57,8 +57,8 @@ CATALOG(pg_proc,1255) BKI_BOOTSTRAP BKI_ROWTYPE_OID(81) BKI_SCHEMA_MACRO
    Oid         proallargtypes[1];      /* all param types (NULL if IN only) */
    char        proargmodes[1]; /* parameter modes (NULL if IN only) */
    text        proargnames[1]; /* parameter names (NULL if no names) */
-   pg_node_tree proargdefaults; /* list of expression trees for argument
-                                 * defaults (NULL if none) */
+   pg_node_tree proargdefaults;/* list of expression trees for argument
+                                * defaults (NULL if none) */
    text        prosrc;         /* procedure source text */
    text        probin;         /* secondary procedure info (can be NULL) */
    text        proconfig[1];   /* procedure-local GUC settings */
@@ -544,7 +544,7 @@ DATA(insert OID = 332 (  btbulkdelete      PGNSP PGUID 12 1 0 0 f f f t f v 4 0 22
 DESCR("btree(internal)");
 DATA(insert OID = 972 (  btvacuumcleanup   PGNSP PGUID 12 1 0 0 f f f t f v 2 0 2281 "2281 2281" _null_ _null_ _null_ _null_ btvacuumcleanup _null_ _null_ _null_ ));
 DESCR("btree(internal)");
-DATA(insert OID = 1268 (  btcostestimate   PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_    btcostestimate _null_ _null_ _null_ ));
+DATA(insert OID = 1268 (  btcostestimate   PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_ btcostestimate _null_ _null_ _null_ ));
 DESCR("btree(internal)");
 DATA(insert OID = 2785 (  btoptions           PGNSP PGUID 12 1 0 0 f f f t f s 2 0 17 "1009 16" _null_ _null_ _null_ _null_  btoptions _null_ _null_ _null_ ));
 DESCR("btree(internal)");
@@ -638,13 +638,13 @@ DATA(insert OID = 447 (  hashrestrpos    PGNSP PGUID 12 1 0 0 f f f t f v 1 0 22
 DESCR("hash(internal)");
 DATA(insert OID = 448 (  hashbuild        PGNSP PGUID 12 1 0 0 f f f t f v 3 0 2281 "2281 2281 2281" _null_ _null_ _null_ _null_ hashbuild _null_ _null_ _null_ ));
 DESCR("hash(internal)");
-DATA(insert OID = 327 (  hashbuildempty       PGNSP PGUID 12 1 0 0 f f f t f v 1 0 2278 "2281" _null_ _null_ _null_ _null_ hashbuildempty _null_ _null_ _null_ ));
+DATA(insert OID = 327 (  hashbuildempty    PGNSP PGUID 12 1 0 0 f f f t f v 1 0 2278 "2281" _null_ _null_ _null_ _null_ hashbuildempty _null_ _null_ _null_ ));
 DESCR("hash(internal)");
 DATA(insert OID = 442 (  hashbulkdelete    PGNSP PGUID 12 1 0 0 f f f t f v 4 0 2281 "2281 2281 2281 2281" _null_ _null_ _null_ _null_ hashbulkdelete _null_ _null_ _null_ ));
 DESCR("hash(internal)");
 DATA(insert OID = 425 (  hashvacuumcleanup PGNSP PGUID 12 1 0 0 f f f t f v 2 0 2281 "2281 2281" _null_ _null_ _null_ _null_ hashvacuumcleanup _null_ _null_ _null_ ));
 DESCR("hash(internal)");
-DATA(insert OID = 438 (  hashcostestimate  PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_    hashcostestimate _null_ _null_ _null_ ));
+DATA(insert OID = 438 (  hashcostestimate  PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_ hashcostestimate _null_ _null_ _null_ ));
 DESCR("hash(internal)");
 DATA(insert OID = 2786 (  hashoptions     PGNSP PGUID 12 1 0 0 f f f t f s 2 0 17 "1009 16" _null_ _null_ _null_ _null_  hashoptions _null_ _null_ _null_ ));
 DESCR("hash(internal)");
@@ -891,13 +891,13 @@ DATA(insert OID = 781 (  gistrestrpos    PGNSP PGUID 12 1 0 0 f f f t f v 1 0 22
 DESCR("gist(internal)");
 DATA(insert OID = 782 (  gistbuild        PGNSP PGUID 12 1 0 0 f f f t f v 3 0 2281 "2281 2281 2281" _null_ _null_ _null_ _null_ gistbuild _null_ _null_ _null_ ));
 DESCR("gist(internal)");
-DATA(insert OID = 326 (  gistbuildempty       PGNSP PGUID 12 1 0 0 f f f t f v 1 0 2278 "2281" _null_ _null_ _null_ _null_ gistbuildempty _null_ _null_ _null_ ));
+DATA(insert OID = 326 (  gistbuildempty    PGNSP PGUID 12 1 0 0 f f f t f v 1 0 2278 "2281" _null_ _null_ _null_ _null_ gistbuildempty _null_ _null_ _null_ ));
 DESCR("gist(internal)");
 DATA(insert OID = 776 (  gistbulkdelete    PGNSP PGUID 12 1 0 0 f f f t f v 4 0 2281 "2281 2281 2281 2281" _null_ _null_ _null_ _null_ gistbulkdelete _null_ _null_ _null_ ));
 DESCR("gist(internal)");
 DATA(insert OID = 2561 (  gistvacuumcleanup   PGNSP PGUID 12 1 0 0 f f f t f v 2 0 2281 "2281 2281" _null_ _null_ _null_ _null_ gistvacuumcleanup _null_ _null_ _null_ ));
 DESCR("gist(internal)");
-DATA(insert OID = 772 (  gistcostestimate  PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_    gistcostestimate _null_ _null_ _null_ ));
+DATA(insert OID = 772 (  gistcostestimate  PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_ gistcostestimate _null_ _null_ _null_ ));
 DESCR("gist(internal)");
 DATA(insert OID = 2787 (  gistoptions     PGNSP PGUID 12 1 0 0 f f f t f s 2 0 17 "1009 16" _null_ _null_ _null_ _null_  gistoptions _null_ _null_ _null_ ));
 DESCR("gist(internal)");
@@ -2250,17 +2250,17 @@ DESCR("I/O");
 DATA(insert OID = 1799 (  oidout          PGNSP PGUID 12 1 0 0 f f f t f i 1 0 2275 "26" _null_ _null_ _null_ _null_ oidout _null_ _null_ _null_ ));
 DESCR("I/O");
 
-DATA(insert OID = 3058 ( concat        PGNSP PGUID 12 1 0 2276 f f f f f s 1 0 25 "2276" "{2276}" "{v}" _null_ _null_  text_concat _null_ _null_ _null_ ));
+DATA(insert OID = 3058 ( concat        PGNSP PGUID 12 1 0 2276 f f f f f s 1 0 25 "2276" "{2276}" "{v}" _null_ _null_  text_concat _null_ _null_ _null_ ));
 DESCR("concatenate values");
-DATA(insert OID = 3059 ( concat_ws PGNSP PGUID 12 1 0 2276 f f f f f s 2 0 25 "25 2276" "{25,2276}" "{i,v}" _null_ _null_  text_concat_ws _null_ _null_ _null_ ));
+DATA(insert OID = 3059 ( concat_ws PGNSP PGUID 12 1 0 2276 f f f f f s 2 0 25 "25 2276" "{25,2276}" "{i,v}" _null_ _null_  text_concat_ws _null_ _null_ _null_ ));
 DESCR("concatenate values with separators");
 DATA(insert OID = 3060 ( left      PGNSP PGUID 12 1 0 0 f f f t f i 2 0 25 "25 23" _null_ _null_ _null_ _null_  text_left _null_ _null_ _null_ ));
 DESCR("extract the first n characters");
 DATA(insert OID = 3061 ( right     PGNSP PGUID 12 1 0 0 f f f t f i 2 0 25 "25 23" _null_ _null_ _null_ _null_  text_right _null_ _null_ _null_ ));
 DESCR("extract the last n characters");
-DATA(insert OID = 3062 ( reverse   PGNSP PGUID 12 1 0 0 f f f t f i 1 0 25 "25" _null_ _null_ _null_ _null_  text_reverse  _null_ _null_ _null_ ));
+DATA(insert OID = 3062 ( reverse   PGNSP PGUID 12 1 0 0 f f f t f i 1 0 25 "25" _null_ _null_ _null_ _null_  text_reverse  _null_ _null_ _null_ ));
 DESCR("reverse text");
-DATA(insert OID = 3539 ( format        PGNSP PGUID 12 1 0 2276 f f f f f s 2 0 25 "25 2276" "{25,2276}" "{i,v}" _null_ _null_  text_format _null_ _null_ _null_ ));
+DATA(insert OID = 3539 ( format        PGNSP PGUID 12 1 0 2276 f f f f f s 2 0 25 "25 2276" "{25,2276}" "{i,v}" _null_ _null_  text_format _null_ _null_ _null_ ));
 DESCR("format text message");
 DATA(insert OID = 3540 ( format        PGNSP PGUID 12 1 0 0 f f f f f s 1 0 25 "25" _null_ _null_ _null_ _null_  text_format_nv _null_ _null_ _null_ ));
 DESCR("format text message");
@@ -2602,7 +2602,7 @@ DATA(insert OID = 3069 (  pg_stat_get_db_conflict_startup_deadlock PGNSP PGUID 1
 DESCR("statistics: recovery conflicts in database caused by buffer deadlock");
 DATA(insert OID = 3070 (  pg_stat_get_db_conflict_all PGNSP PGUID 12 1 0 0 f f f t f s 1 0 20 "26" _null_ _null_ _null_ _null_ pg_stat_get_db_conflict_all _null_ _null_ _null_ ));
 DESCR("statistics: recovery conflicts in database");
-DATA(insert OID = 3074 (  pg_stat_get_db_stat_reset_time PGNSP PGUID 12 1 0 0 f f f t f s 1 0 1184 "26" _null_ _null_ _null_ _null_    pg_stat_get_db_stat_reset_time _null_ _null_ _null_ ));
+DATA(insert OID = 3074 (  pg_stat_get_db_stat_reset_time PGNSP PGUID 12 1 0 0 f f f t f s 1 0 1184 "26" _null_ _null_ _null_ _null_ pg_stat_get_db_stat_reset_time _null_ _null_ _null_ ));
 DESCR("statistics: last reset for a database");
 DATA(insert OID = 2769 ( pg_stat_get_bgwriter_timed_checkpoints PGNSP PGUID 12 1 0 0 f f f t f s 0 0 20 "" _null_ _null_ _null_ _null_ pg_stat_get_bgwriter_timed_checkpoints _null_ _null_ _null_ ));
 DESCR("statistics: number of timed checkpoints started by the bgwriter");
@@ -3818,13 +3818,13 @@ DATA(insert OID = 2739 (  ginbulkdelete    PGNSP PGUID 12 1 0 0 f f f t f v 4 0
 DESCR("gin(internal)");
 DATA(insert OID = 2740 (  ginvacuumcleanup PGNSP PGUID 12 1 0 0 f f f t f v 2 0 2281 "2281 2281" _null_ _null_ _null_ _null_ ginvacuumcleanup _null_ _null_ _null_ ));
 DESCR("gin(internal)");
-DATA(insert OID = 2741 (  gincostestimate  PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_    gincostestimate _null_ _null_ _null_ ));
+DATA(insert OID = 2741 (  gincostestimate  PGNSP PGUID 12 1 0 0 f f f t f v 9 0 2278 "2281 2281 2281 2281 2281 2281 2281 2281 2281" _null_ _null_ _null_ _null_ gincostestimate _null_ _null_ _null_ ));
 DESCR("gin(internal)");
 DATA(insert OID = 2788 (  ginoptions      PGNSP PGUID 12 1 0 0 f f f t f s 2 0 17 "1009 16" _null_ _null_ _null_ _null_  ginoptions _null_ _null_ _null_ ));
 DESCR("gin(internal)");
 
 /* GIN array support */
-DATA(insert OID = 2743 (  ginarrayextract   PGNSP PGUID 12 1 0 0 f f f t f i 3 0 2281 "2277 2281 2281" _null_ _null_ _null_ _null_ ginarrayextract _null_ _null_ _null_ ));
+DATA(insert OID = 2743 (  ginarrayextract   PGNSP PGUID 12 1 0 0 f f f t f i 3 0 2281 "2277 2281 2281" _null_ _null_ _null_ _null_ ginarrayextract _null_ _null_ _null_ ));
 DESCR("GIN array support");
 DATA(insert OID = 2774 (  ginqueryarrayextract PGNSP PGUID 12 1 0 0 f f f t f i 7 0 2281 "2277 2281 21 2281 2281 2281 2281" _null_ _null_ _null_ _null_ ginqueryarrayextract _null_ _null_ _null_ ));
 DESCR("GIN array support");
@@ -3940,7 +3940,7 @@ DESCR("evaluate XPath expression, with namespaces support");
 DATA(insert OID = 2932 (  xpath         PGNSP PGUID 14 1 0 0 f f f t f i 2 0 143 "25 142" _null_ _null_ _null_ _null_ "select pg_catalog.xpath($1, $2, ''{}''::pg_catalog.text[])" _null_ _null_ _null_ ));
 DESCR("evaluate XPath expression");
 
-DATA(insert OID = 2614 (  xmlexists     PGNSP PGUID 12 1 0 0 f f f t f i 2 0 16 "25 142" _null_ _null_ _null_ _null_ xmlexists _null_ _null_ _null_ ));
+DATA(insert OID = 2614 (  xmlexists  PGNSP PGUID 12 1 0 0 f f f t f i 2 0 16 "25 142" _null_ _null_ _null_ _null_ xmlexists _null_ _null_ _null_ ));
 DESCR("test XML value against XPath expression");
 
 DATA(insert OID = 3049 (  xpath_exists  PGNSP PGUID 12 1 0 0 f f f t f i 3 0 16 "25 142 1009" _null_ _null_ _null_ _null_ xpath_exists _null_ _null_ _null_ ));
index f41b85a3688f53c7955b0d59d006c4b93c847f48..1f9a6a0432893f3b3b73316647b27b9cc71837ee 100644 (file)
@@ -1,7 +1,7 @@
 /* -------------------------------------------------------------------------
  *
  * pg_seclabel.h
- *    definition of the system "security label" relation (pg_seclabel)
+ *   definition of the system "security label" relation (pg_seclabel)
  *
  * Portions Copyright (c) 1996-2011, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
 
 CATALOG(pg_seclabel,3596) BKI_WITHOUT_OIDS
 {
-   Oid         objoid;     /* OID of the object itself */
-   Oid         classoid;   /* OID of table containing the object */
-   int4        objsubid;   /* column number, or 0 if not used */
-   text        provider;   /* name of label provider */
-   text        label;      /* security label of the object */
+   Oid         objoid;         /* OID of the object itself */
+   Oid         classoid;       /* OID of table containing the object */
+   int4        objsubid;       /* column number, or 0 if not used */
+   text        provider;       /* name of label provider */
+   text        label;          /* security label of the object */
 } FormData_pg_seclabel;
 
 /* ----------------
@@ -40,4 +40,4 @@ CATALOG(pg_seclabel,3596) BKI_WITHOUT_OIDS
 #define Anum_pg_seclabel_provider  4
 #define Anum_pg_seclabel_label     5
 
-#endif /* PG_SECLABEL_H */
+#endif   /* PG_SECLABEL_H */
index 9baed6c7690b28594187989a11757a82f589e523..d72ca2342fabb33239ceed03cb85ecaeacd0fe7c 100644 (file)
@@ -194,9 +194,8 @@ CATALOG(pg_type,1247) BKI_BOOTSTRAP BKI_ROWTYPE_OID(71) BKI_SCHEMA_MACRO
    int4        typndims;
 
    /*
-    * Collation: 0 if type cannot use collations,
-    * DEFAULT_COLLATION_OID for collatable base types, possibly other
-    * OID for domains
+    * Collation: 0 if type cannot use collations, DEFAULT_COLLATION_OID for
+    * collatable base types, possibly other OID for domains
     */
    Oid         typcollation;
 
@@ -205,7 +204,7 @@ CATALOG(pg_type,1247) BKI_BOOTSTRAP BKI_ROWTYPE_OID(71) BKI_SCHEMA_MACRO
     * a default expression for the type.  Currently this is only used for
     * domains.
     */
-   pg_node_tree typdefaultbin; /* VARIABLE LENGTH FIELD */
+   pg_node_tree typdefaultbin; /* VARIABLE LENGTH FIELD */
 
    /*
     * typdefault is NULL if the type has no associated default value. If
@@ -350,7 +349,7 @@ DESCR("XML content");
 #define XMLOID 142
 DATA(insert OID = 143 ( _xml      PGNSP PGUID -1 f b A f t \054 0 142 0 array_in array_out array_recv array_send - - - i x f 0 -1 0 0 _null_ _null_ ));
 
-DATA(insert OID = 194 (    pg_node_tree    PGNSP PGUID -1 f b S f t \054 0 0 0 pg_node_tree_in pg_node_tree_out pg_node_tree_recv pg_node_tree_send - - - i x f 0 -1 0 100 _null_ _null_ ));
+DATA(insert OID = 194 ( pg_node_tree   PGNSP PGUID -1 f b S f t \054 0 0 0 pg_node_tree_in pg_node_tree_out pg_node_tree_recv pg_node_tree_send - - - i x f 0 -1 0 100 _null_ _null_ ));
 DESCR("string representing an internal node tree");
 #define PGNODETREEOID  194
 
index 0b93b370bd2c80798c8c02bfbeb384669fee45e8..8dee8cf22519690a046704eb47849d2551c00a49 100644 (file)
@@ -30,7 +30,7 @@ extern void RelationTruncate(Relation rel, BlockNumber nblocks);
  * naming
  */
 extern void smgrDoPendingDeletes(bool isCommit);
-extern int smgrGetPendingDeletes(bool forCommit, RelFileNode **ptr);
+extern int smgrGetPendingDeletes(bool forCommit, RelFileNode **ptr);
 extern void AtSubCommit_smgr(void);
 extern void AtSubAbort_smgr(void);
 extern void PostPrepare_smgr(void);
index 21731685f5c6f79a164bcda42ca3cba1ee44e321..e942b538af915528e25f958667f4667c092a9be7 100644 (file)
@@ -21,7 +21,7 @@
 extern void ExecRenameStmt(RenameStmt *stmt);
 extern void ExecAlterObjectSchemaStmt(AlterObjectSchemaStmt *stmt);
 extern Oid AlterObjectNamespace_oid(Oid classId, Oid objid, Oid nspOid);
-extern Oid AlterObjectNamespace(Relation rel, int oidCacheId, int nameCacheId,
+extern Oid AlterObjectNamespace(Relation rel, int oidCacheId, int nameCacheId,
                     Oid objid, Oid nspOid,
                     int Anum_name, int Anum_namespace, int Anum_owner,
                     AclObjectKind acl_kind);
index 60504694a5b4a9d3cf55a7568a2f3070d57b577a..6dbeb751aa95da5baa3f5ff758a379486e8f7947 100644 (file)
@@ -23,6 +23,6 @@ extern void RenameCollation(List *name, const char *newname);
 extern void AlterCollationOwner(List *name, Oid newOwnerId);
 extern void AlterCollationOwner_oid(Oid collationOid, Oid newOwnerId);
 extern void AlterCollationNamespace(List *name, const char *newschema);
-extern Oid AlterCollationNamespace_oid(Oid collOid, Oid newNspOid);
+extern Oid AlterCollationNamespace_oid(Oid collOid, Oid newNspOid);
 
 #endif   /* COLLATIONCMDS_H */
index 7098a70c95968f81953e937f8b457f0e5ce1bcc8..a31479defb5974f9a0c945fec13af2b64e163443 100644 (file)
@@ -25,12 +25,12 @@ extern uint64 DoCopy(const CopyStmt *stmt, const char *queryString);
 
 extern void ProcessCopyOptions(CopyState cstate, bool is_from, List *options);
 extern CopyState BeginCopyFrom(Relation rel, const char *filename,
-                              List *attnamelist, List *options);
+             List *attnamelist, List *options);
 extern void EndCopyFrom(CopyState cstate);
 extern bool NextCopyFrom(CopyState cstate, ExprContext *econtext,
-                        Datum *values, bool *nulls, Oid *tupleOid);
+            Datum *values, bool *nulls, Oid *tupleOid);
 extern bool NextCopyFromRawFields(CopyState cstate,
-                                 char ***fields, int *nfields);
+                     char ***fields, int *nfields);
 extern void CopyFromErrorCallback(void *arg);
 
 extern DestReceiver *CreateCopyDestReceiver(void);
index f54c57907a12a953c59f2ba1aae6d5040287ea11..21dacff39c7bcff0050dc40e0ecb93ecd5538ea6 100644 (file)
@@ -27,14 +27,14 @@ typedef struct xl_dbase_create_rec_old
    Oid         db_id;
    char        src_path[1];    /* VARIABLE LENGTH STRING */
    /* dst_path follows src_path */
-} xl_dbase_create_rec_old;
+}  xl_dbase_create_rec_old;
 
 typedef struct xl_dbase_drop_rec_old
 {
    /* Records dropping of a single subdirectory incl. contents */
    Oid         db_id;
    char        dir_path[1];    /* VARIABLE LENGTH STRING */
-} xl_dbase_drop_rec_old;
+}  xl_dbase_drop_rec_old;
 
 typedef struct xl_dbase_create_rec
 {
index 157ee394614a0c1c86d9cbc09f522150d283582e..bbc024f50ccbc8063a65ca739170587a11a00e7c 100644 (file)
@@ -68,7 +68,7 @@ extern void AlterFunctionNamespace(List *name, List *argtypes, bool isagg,
                       const char *newschema);
 extern Oid AlterFunctionNamespace_oid(Oid procOid, Oid nspOid);
 extern void ExecuteDoStmt(DoStmt *stmt);
-extern Oid get_cast_oid(Oid sourcetypeid, Oid targettypeid, bool missing_ok);
+extern Oid get_cast_oid(Oid sourcetypeid, Oid targettypeid, bool missing_ok);
 
 /* commands/operatorcmds.c */
 extern void DefineOperator(List *names, List *parameters);
@@ -107,9 +107,9 @@ extern void AlterOpFamilyOwner(List *name, const char *access_method, Oid newOwn
 extern void AlterOpFamilyOwner_oid(Oid opfamilyOid, Oid newOwnerId);
 extern void AlterOpFamilyNamespace(List *name, char *access_method, const char *newschema);
 extern Oid AlterOpFamilyNamespace_oid(Oid opfamilyOid, Oid newNspOid);
-extern Oid get_am_oid(const char *amname, bool missing_ok);
-extern Oid get_opclass_oid(Oid amID, List *opclassname, bool missing_ok);
-extern Oid get_opfamily_oid(Oid amID, List *opfamilyname, bool missing_ok);
+extern Oid get_am_oid(const char *amname, bool missing_ok);
+extern Oid get_opclass_oid(Oid amID, List *opclassname, bool missing_ok);
+extern Oid get_opfamily_oid(Oid amID, List *opfamilyname, bool missing_ok);
 
 /* commands/tsearchcmds.c */
 extern void DefineTSParser(List *names, List *parameters);
@@ -164,9 +164,9 @@ extern void RemoveUserMapping(DropUserMappingStmt *stmt);
 extern void RemoveUserMappingById(Oid umId);
 extern void CreateForeignTable(CreateForeignTableStmt *stmt, Oid relid);
 extern Datum transformGenericOptions(Oid catalogId,
-                                    Datum oldOptions,
-                                    List *options,
-                                    Oid fdwvalidator);
+                       Datum oldOptions,
+                       List *options,
+                       Oid fdwvalidator);
 
 /* support routines in commands/define.c */
 
index 2c38c92ae5124469a2c88ee741bc449264fa739f..d7998c31781588143c2ea9fce76b19a8f1d1a62f 100644 (file)
@@ -73,14 +73,14 @@ extern void ExplainEndOutput(ExplainState *es);
 extern void ExplainSeparatePlans(ExplainState *es);
 
 extern void ExplainPropertyList(const char *qlabel, List *data,
-                               ExplainState *es);
+                   ExplainState *es);
 extern void ExplainPropertyText(const char *qlabel, const char *value,
-                               ExplainState *es);
+                   ExplainState *es);
 extern void ExplainPropertyInteger(const char *qlabel, int value,
-                                  ExplainState *es);
+                      ExplainState *es);
 extern void ExplainPropertyLong(const char *qlabel, long value,
-                               ExplainState *es);
+                   ExplainState *es);
 extern void ExplainPropertyFloat(const char *qlabel, double value, int ndigits,
-                                ExplainState *es);
+                    ExplainState *es);
 
 #endif   /* EXPLAIN_H */
index c6e69d5fd4216a0b3965b5f1df7251472d25bb2e..2792c6dd49f7f5cfac3883d3b3afc42674732688 100644 (file)
@@ -24,7 +24,7 @@
  * installation script.
  */
 extern bool creating_extension;
-extern Oid CurrentExtensionObject;
+extern Oid CurrentExtensionObject;
 
 
 extern void CreateExtension(CreateExtensionStmt *stmt);
@@ -32,7 +32,7 @@ extern void CreateExtension(CreateExtensionStmt *stmt);
 extern void RemoveExtensions(DropStmt *stmt);
 extern void RemoveExtensionById(Oid extId);
 
-extern Oid InsertExtensionTuple(const char *extName, Oid extOwner,
+extern Oid InsertExtensionTuple(const char *extName, Oid extOwner,
                     Oid schemaOid, bool relocatable, const char *extVersion,
                     Datum extConfig, Datum extCondition,
                     List *requiredExtensions);
index aa1fb34d1a0b671bec3e4fcfdbfb1886711a740e..644c371dcc0d428e5a9a70b8909627e82fded1de 100644 (file)
@@ -21,6 +21,6 @@ extern void RenameLanguage(const char *oldname, const char *newname);
 extern void AlterLanguageOwner(const char *name, Oid newOwnerId);
 extern void AlterLanguageOwner_oid(Oid oid, Oid newOwnerId);
 extern bool PLTemplateExists(const char *languageName);
-extern Oid get_language_oid(const char *langname, bool missing_ok);
+extern Oid get_language_oid(const char *langname, bool missing_ok);
 
 #endif   /* PROCLANG_H */
index 1ae922b7e9019b1ce6df157f9b39a53272c7f582..06ce602d7dcefa72246ef9c61d4621c2b2604e45 100644 (file)
@@ -19,7 +19,7 @@
 extern char *GetSecurityLabel(const ObjectAddress *object,
                 const char *provider);
 extern void SetSecurityLabel(const ObjectAddress *object,
-                const char *provider, const char *label);
+                const char *provider, const char *label);
 extern void DeleteSecurityLabel(const ObjectAddress *object);
 
 /*
@@ -27,9 +27,9 @@ extern void DeleteSecurityLabel(const ObjectAddress *object);
  */
 extern void ExecSecLabelStmt(SecLabelStmt *stmt);
 
-typedef void (*check_object_relabel_type)(const ObjectAddress *object,
-                                         const char *seclabel);
+typedef void (*check_object_relabel_type) (const ObjectAddress *object,
+                                                      const char *seclabel);
 extern void register_label_provider(const char *provider,
-                                   check_object_relabel_type hook);
+                       check_object_relabel_type hook);
 
-#endif /* SECLABEL_H */
+#endif   /* SECLABEL_H */
index 80a779ed0bdf143f058249843bebdf665925abe6..ad97871d98afdab71ae62d270fed1860cab7cee0 100644 (file)
@@ -115,7 +115,7 @@ extern Oid CreateTrigger(CreateTrigStmt *stmt, const char *queryString,
 extern void DropTrigger(Oid relid, const char *trigname,
            DropBehavior behavior, bool missing_ok);
 extern void RemoveTriggerById(Oid trigOid);
-extern Oid get_trigger_oid(Oid relid, const char *name, bool missing_ok);
+extern Oid get_trigger_oid(Oid relid, const char *name, bool missing_ok);
 
 extern void renametrig(Oid relid, const char *oldname, const char *newname);
 
index 1b20296934f53e4aac5aa298c0e733e31184513d..6d9d1ccaa95d86e07177d634fbc136071b5b5d77 100644 (file)
@@ -42,7 +42,7 @@ extern void AlterTypeOwnerInternal(Oid typeOid, Oid newOwnerId,
                       bool hasDependEntry);
 extern void AlterTypeNamespace(List *names, const char *newschema);
 extern Oid AlterTypeNamespace_oid(Oid typeOid, Oid nspOid);
-extern Oid AlterTypeNamespaceInternal(Oid typeOid, Oid nspOid,
+extern Oid AlterTypeNamespaceInternal(Oid typeOid, Oid nspOid,
                           bool isImplicitArray,
                           bool errorOnTableType);
 
index cc1441372dc6b04619b4f634b3c543c83d7bf162..79c9f5d90fb674ca8c778a65ca540ef62bded0af 100644 (file)
@@ -68,7 +68,7 @@ typedef struct VacAttrStats
     * type-specific typanalyze function.
     *
     * Note: do not assume that the data being analyzed has the same datatype
-    * shown in attr, ie do not trust attr->atttypid, attlen, etc.  This is
+    * shown in attr, ie do not trust attr->atttypid, attlen, etc.  This is
     * because some index opclasses store a different type than the underlying
     * column/expression.  Instead use attrtypid, attrtypmod, and attrtype for
     * information about the datatype being fed to the typanalyze function.
index 3e9df936e5112b574a7f326f1f200dcddded1d7c..1d651dd40819275a4410ad4448116bf4887585dc 100644 (file)
@@ -54,7 +54,7 @@
 #define EXEC_FLAG_REWIND       0x0002  /* need efficient rescan */
 #define EXEC_FLAG_BACKWARD     0x0004  /* need backward scan */
 #define EXEC_FLAG_MARK         0x0008  /* need mark/restore */
-#define EXEC_FLAG_SKIP_TRIGGERS    0x0010  /* skip AfterTrigger calls */
+#define EXEC_FLAG_SKIP_TRIGGERS 0x0010 /* skip AfterTrigger calls */
 
 
 /*
@@ -153,7 +153,7 @@ extern JunkFilter *ExecInitJunkFilterConversion(List *targetList,
 extern AttrNumber ExecFindJunkAttribute(JunkFilter *junkfilter,
                      const char *attrName);
 extern AttrNumber ExecFindJunkAttributeInTlist(List *targetlist,
-                     const char *attrName);
+                            const char *attrName);
 extern Datum ExecGetJunkAttribute(TupleTableSlot *slot, AttrNumber attno,
                     bool *isNull);
 extern TupleTableSlot *ExecFilterJunk(JunkFilter *junkfilter,
@@ -194,7 +194,7 @@ extern HeapTuple EvalPlanQualFetch(EState *estate, Relation relation,
 extern void EvalPlanQualInit(EPQState *epqstate, EState *estate,
                 Plan *subplan, List *auxrowmarks, int epqParam);
 extern void EvalPlanQualSetPlan(EPQState *epqstate,
-                               Plan *subplan, List *auxrowmarks);
+                   Plan *subplan, List *auxrowmarks);
 extern void EvalPlanQualSetTuple(EPQState *epqstate, Index rti,
                     HeapTuple tuple);
 extern HeapTuple EvalPlanQualGetTuple(EPQState *epqstate, Index rti);
index b926e99cbbddc24d6961028407a45f40645bac4d..aaa36c5826d8498be69a4a83f8712a38403627b2 100644 (file)
@@ -27,7 +27,7 @@ extern SQLFunctionParseInfoPtr prepare_sql_fn_parse_info(HeapTuple procedureTupl
                          Oid inputCollation);
 
 extern void sql_fn_parser_setup(struct ParseState *pstate,
-                               SQLFunctionParseInfoPtr pinfo);
+                   SQLFunctionParseInfoPtr pinfo);
 
 extern bool check_sql_fn_retval(Oid func_id, Oid rettype,
                    List *queryTreeList,
index 5ea165434abcf8ddf7c6fe38d57c11db291c802a..0c6e06f8ff5b5eaffc1cbe967a3d242ca9c50a79 100644 (file)
@@ -67,7 +67,7 @@ typedef struct HashJoinTupleData
    struct HashJoinTupleData *next;     /* link to next tuple in same bucket */
    uint32      hashvalue;      /* tuple's hash code */
    /* Tuple data, in MinimalTuple format, follows on a MAXALIGN boundary */
-} HashJoinTupleData;
+}  HashJoinTupleData;
 
 #define HJTUPLE_OVERHEAD  MAXALIGN(sizeof(HashJoinTupleData))
 #define HJTUPLE_MINTUPLE(hjtup)  \
@@ -158,6 +158,6 @@ typedef struct HashJoinTableData
 
    MemoryContext hashCxt;      /* context for whole-hash-join storage */
    MemoryContext batchCxt;     /* context for this-batch-only storage */
-} HashJoinTableData;
+}  HashJoinTableData;
 
 #endif   /* HASHJOIN_H */
index 4810f4be5e0fc30557a8795aff833f734887db9e..2c3c1b534b4169927a5920e07a756b336ebb523d 100644 (file)
@@ -23,7 +23,7 @@ extern void ExecEndHash(HashState *node);
 extern void ExecReScanHash(HashState *node);
 
 extern HashJoinTable ExecHashTableCreate(Hash *node, List *hashOperators,
-                                        bool keepNulls);
+                   bool keepNulls);
 extern void ExecHashTableDestroy(HashJoinTable hashtable);
 extern void ExecHashTableInsert(HashJoinTable hashtable,
                    TupleTableSlot *slot,
@@ -41,7 +41,7 @@ extern void ExecHashGetBucketAndBatch(HashJoinTable hashtable,
 extern bool ExecScanHashBucket(HashJoinState *hjstate, ExprContext *econtext);
 extern void ExecPrepHashTableForUnmatched(HashJoinState *hjstate);
 extern bool ExecScanHashTableForUnmatched(HashJoinState *hjstate,
-                                         ExprContext *econtext);
+                             ExprContext *econtext);
 extern void ExecHashTableReset(HashJoinTable hashtable);
 extern void ExecHashTableResetMatchFlags(HashJoinTable hashtable);
 extern void ExecChooseHashTableSize(double ntuples, int tupwidth, bool useskew,
index 9e5224d374da46f6535dd68282f91f6ec8deea7f..e58060f834615d41181835a67b61f6054fd6d260 100644 (file)
@@ -458,9 +458,9 @@ extern Datum DirectFunctionCall9(PGFunction func, Datum arg1, Datum arg2,
 
 /* The same, but passing a collation to use */
 extern Datum DirectFunctionCall1WithCollation(PGFunction func, Oid collation,
-                                             Datum arg1);
+                                Datum arg1);
 extern Datum DirectFunctionCall2WithCollation(PGFunction func, Oid collation,
-                                             Datum arg1, Datum arg2);
+                                Datum arg1, Datum arg2);
 
 /* These are for invocation of a previously-looked-up function with a
  * directly-computed parameter list.  Note that neither arguments nor result
@@ -573,7 +573,7 @@ extern int AggCheckCallContext(FunctionCallInfo fcinfo,
  * We allow plugin modules to hook function entry/exit.  This is intended
  * as support for loadable security policy modules, which may want to
  * perform additional privilege checks on function entry or exit, or to do
- * other internal bookkeeping.  To make this possible, such modules must be
+ * other internal bookkeeping. To make this possible, such modules must be
  * able not only to support normal function entry and exit, but also to trap
  * the case where we bail out due to an error; and they must also be able to
  * prevent inlining.
@@ -585,13 +585,13 @@ typedef enum FmgrHookEventType
    FHET_ABORT
 } FmgrHookEventType;
 
-typedef bool (*needs_fmgr_hook_type)(Oid fn_oid);
+typedef bool (*needs_fmgr_hook_type) (Oid fn_oid);
 
-typedef void (*fmgr_hook_type)(FmgrHookEventType event,
-                              FmgrInfo *flinfo, Datum *arg);
+typedef void (*fmgr_hook_type) (FmgrHookEventType event,
+                                           FmgrInfo *flinfo, Datum *arg);
 
-extern PGDLLIMPORT needs_fmgr_hook_type    needs_fmgr_hook;
-extern PGDLLIMPORT fmgr_hook_type      fmgr_hook;
+extern PGDLLIMPORT needs_fmgr_hook_type needs_fmgr_hook;
+extern PGDLLIMPORT fmgr_hook_type fmgr_hook;
 
 #define FmgrHookIsNeeded(fn_oid)                           \
    (!needs_fmgr_hook ? false : (*needs_fmgr_hook)(fn_oid))
index 287318738851d5bc1256374fe9d9ca3d3f28b2d7..3378ba9adebac63ebea0bf3222c88915a92d09f9 100644 (file)
@@ -27,11 +27,11 @@ typedef struct FdwPlan
    NodeTag     type;
 
    /*
-    * Cost estimation info. The startup_cost is time before retrieving
-    * the first row, so it should include costs of connecting to the remote
-    * host, sending over the query, etc.  Note that PlanForeignScan also
-    * ought to set baserel->rows and baserel->width if it can produce any
-    * usable estimates of those values.
+    * Cost estimation info. The startup_cost is time before retrieving the
+    * first row, so it should include costs of connecting to the remote host,
+    * sending over the query, etc.  Note that PlanForeignScan also ought to
+    * set baserel->rows and baserel->width if it can produce any usable
+    * estimates of those values.
     */
    Cost        startup_cost;   /* cost expended before fetching any tuples */
    Cost        total_cost;     /* total cost (assuming all tuples fetched) */
@@ -39,10 +39,10 @@ typedef struct FdwPlan
    /*
     * FDW private data, which will be available at execution time.
     *
-    * Note that everything in this list must be copiable by copyObject().
-    * One way to store an arbitrary blob of bytes is to represent it as a
-    * bytea Const.  Usually, though, you'll be better off choosing a
-    * representation that can be dumped usefully by nodeToString().
+    * Note that everything in this list must be copiable by copyObject(). One
+    * way to store an arbitrary blob of bytes is to represent it as a bytea
+    * Const.  Usually, though, you'll be better off choosing a representation
+    * that can be dumped usefully by nodeToString().
     */
    List       *fdw_private;
 } FdwPlan;
@@ -52,17 +52,17 @@ typedef struct FdwPlan
  * Callback function signatures --- see fdwhandler.sgml for more info.
  */
 
-typedef FdwPlan * (*PlanForeignScan_function) (Oid foreigntableid,
-                                              PlannerInfo *root,
-                                              RelOptInfo *baserel);
+typedef FdwPlan *(*PlanForeignScan_function) (Oid foreigntableid,
+                                                         PlannerInfo *root,
+                                                       RelOptInfo *baserel);
 
 typedef void (*ExplainForeignScan_function) (ForeignScanState *node,
-                                            struct ExplainState *es);
+                                                   struct ExplainState *es);
 
 typedef void (*BeginForeignScan_function) (ForeignScanState *node,
-                                          int eflags);
+                                                      int eflags);
 
-typedef TupleTableSlot * (*IterateForeignScan_function) (ForeignScanState *node);
+typedef TupleTableSlot *(*IterateForeignScan_function) (ForeignScanState *node);
 
 typedef void (*ReScanForeignScan_function) (ForeignScanState *node);
 
index 2fda9e39feb14fd4df2a7b45800c28d6d7ea9d0d..2c436aef805f621278be1ac93a6fbb35eb71a8b1 100644 (file)
@@ -76,7 +76,7 @@ extern ForeignDataWrapper *GetForeignDataWrapperByName(const char *name,
                            bool missing_ok);
 extern ForeignTable *GetForeignTable(Oid relid);
 
-extern Oid get_foreign_data_wrapper_oid(const char *fdwname, bool missing_ok);
-extern Oid get_foreign_server_oid(const char *servername, bool missing_ok);
+extern Oid get_foreign_data_wrapper_oid(const char *fdwname, bool missing_ok);
+extern Oid get_foreign_server_oid(const char *servername, bool missing_ok);
 
 #endif   /* FOREIGN_H */
index 7d15b73370782f9bbc2bee06427f291460459b32..884daf59ec3564c23919a2371f3389873d59d61c 100644 (file)
@@ -25,7 +25,7 @@ extern char *pg_krb_realm;
 extern void ClientAuthentication(Port *port);
 
 /* Hook for plugins to get control in ClientAuthentication() */
-typedef void (*ClientAuthentication_hook_type)(Port *, int);
+typedef void (*ClientAuthentication_hook_type) (Port *, int);
 extern PGDLLIMPORT ClientAuthentication_hook_type ClientAuthentication_hook;
 
 #endif   /* AUTH_H */
index 4cdb15f06402a24504f8342219851c55b5191690..77e190fd1a0f839195f6675422b3e9c321189023 100644 (file)
@@ -109,10 +109,14 @@ typedef struct Port
    SockAddr    laddr;          /* local addr (postmaster) */
    SockAddr    raddr;          /* remote addr (client) */
    char       *remote_host;    /* name (or ip addr) of remote host */
-   char       *remote_hostname; /* name (not ip addr) of remote host, if available */
-   int         remote_hostname_resolv; /* +1 = remote_hostname is known to resolve to client's IP address;
-                                          -1 = remote_hostname is known NOT to resolve to client's IP address;
-                                          0 = we have not done the forward DNS lookup yet */
+   char       *remote_hostname;/* name (not ip addr) of remote host, if
+                                * available */
+   int         remote_hostname_resolv; /* +1 = remote_hostname is known to
+                                        * resolve to client's IP address; -1
+                                        * = remote_hostname is known NOT to
+                                        * resolve to client's IP address; 0 =
+                                        * we have not done the forward DNS
+                                        * lookup yet */
    char       *remote_port;    /* text rep of remote port */
    CAC_state   canAcceptConnections;   /* postmaster connection status */
 
index 2df735f61f1773be4577ccd60e190242d0898155..38f96af5cd5056b341e77d7f1d030c2386208e6f 100644 (file)
@@ -61,7 +61,7 @@ extern int    pq_getbyte_if_available(unsigned char *c);
 extern int pq_putbytes(const char *s, size_t len);
 extern int pq_flush(void);
 extern int pq_flush_if_writable(void);
-extern bool    pq_is_send_pending(void);
+extern bool pq_is_send_pending(void);
 extern int pq_putmessage(char msgtype, const char *s, size_t len);
 extern void pq_putmessage_noblock(char msgtype, const char *s, size_t len);
 extern void pq_startcopyout(void);
index a2dcc6814566f9c8dbb190b902de7578ba35c96b..9c688c036861cca70b4bfdd4109acfb2b130cd18 100644 (file)
@@ -380,7 +380,7 @@ typedef struct EState
 
    List       *es_subplanstates;       /* List of PlanState for SubPlans */
 
-   List       *es_auxmodifytables; /* List of secondary ModifyTableStates */
+   List       *es_auxmodifytables;     /* List of secondary ModifyTableStates */
 
    /*
     * this ExprContext is for per-output-tuple operations, such as constraint
@@ -489,7 +489,7 @@ typedef struct TupleHashTableData
    TupleTableSlot *inputslot;  /* current input tuple's slot */
    FmgrInfo   *in_hash_funcs;  /* hash functions for input datatype(s) */
    FmgrInfo   *cur_eq_funcs;   /* equality functions for input vs. table */
-} TupleHashTableData;
+}  TupleHashTableData;
 
 typedef HASH_SEQ_STATUS TupleHashIterator;
 
@@ -718,7 +718,7 @@ typedef struct SubPlanState
    TupleHashTable hashnulls;   /* hash table for rows with null(s) */
    bool        havehashrows;   /* TRUE if hashtable is not empty */
    bool        havenullrows;   /* TRUE if hashnulls is not empty */
-   MemoryContext hashtablecxt; /* memory context containing hash tables */
+   MemoryContext hashtablecxt; /* memory context containing hash tables */
    MemoryContext hashtempcxt;  /* temp memory context for hash tables */
    ExprContext *innerecontext; /* econtext for computing inner tuples */
    AttrNumber *keyColIdx;      /* control data for hash tables */
@@ -1051,7 +1051,7 @@ typedef struct ModifyTableState
    PlanState **mt_plans;       /* subplans (one per target rel) */
    int         mt_nplans;      /* number of plans in the array */
    int         mt_whichplan;   /* which one is being executed (0..n-1) */
-   ResultRelInfo *resultRelInfo;   /* per-subplan target relations */
+   ResultRelInfo *resultRelInfo;       /* per-subplan target relations */
    List      **mt_arowmarks;   /* per-subplan ExecAuxRowMark lists */
    EPQState    mt_epqstate;    /* for evaluating EvalPlanQual rechecks */
    bool        fireBSTriggers; /* do we need to fire stmt triggers? */
@@ -1093,9 +1093,9 @@ typedef struct MergeAppendState
    int         ms_nkeys;
    ScanKey     ms_scankeys;    /* array of length ms_nkeys */
    TupleTableSlot **ms_slots;  /* array of length ms_nplans */
-   int         *ms_heap;       /* array of length ms_nplans */
+   int        *ms_heap;        /* array of length ms_nplans */
    int         ms_heap_size;   /* current active length of ms_heap[] */
-   bool        ms_initialized; /* are subplans started? */
+   bool        ms_initialized; /* are subplans started? */
    int         ms_last_slot;   /* last subplan slot we returned from */
 } MergeAppendState;
 
index 152cb0de2b90b9efd3e610e2b90e8be53e09aa4b..61314608f53e02a99a1eaa72beeacb4be9fff64a 100644 (file)
@@ -31,7 +31,7 @@ extern Var *makeVar(Index varno,
        Index varlevelsup);
 
 extern Var *makeVarFromTargetEntry(Index varno,
-                                  TargetEntry *tle);
+                      TargetEntry *tle);
 
 extern Var *makeWholeRowVar(RangeTblEntry *rte,
                Index varno,
@@ -63,7 +63,7 @@ extern Expr *makeBoolExpr(BoolExprType boolop, List *args, int location);
 extern Alias *makeAlias(const char *aliasname, List *colnames);
 
 extern RelabelType *makeRelabelType(Expr *arg, Oid rtype, int32 rtypmod,
-                                   Oid rcollid, CoercionForm rformat);
+               Oid rcollid, CoercionForm rformat);
 
 extern RangeVar *makeRangeVar(char *schemaname, char *relname, int location);
 
index 824816e53d79b2a109bdd52f1abd4544666c4816..cf9a788019fc79f921962b7f14acdff1b1526b59 100644 (file)
@@ -72,7 +72,7 @@ typedef struct ParamListInfoData
    void       *parserSetupArg;
    int         numParams;      /* number of ParamExternDatas following */
    ParamExternData params[1];  /* VARIABLE LENGTH ARRAY */
-} ParamListInfoData;
+}  ParamListInfoData;
 
 
 /* ----------------
index d9eac766f02fbac4f0e3163affd0e39f2cf184fa..566cd3af764dff1278ece3d90b5331dc2d7dda05 100644 (file)
@@ -148,7 +148,7 @@ typedef struct Query
    Node       *setOperations;  /* set-operation tree if this is top level of
                                 * a UNION/INTERSECT/EXCEPT query */
 
-   List       *constraintDeps; /* a list of pg_constraint OIDs that the query
+   List       *constraintDeps; /* a list of pg_constraint OIDs that the query
                                 * depends on to be semantically valid */
 } Query;
 
@@ -724,14 +724,14 @@ typedef struct RangeTblEntry
     * Fields valid for a function RTE (else NULL):
     *
     * If the function returns RECORD, funccoltypes lists the column types
-    * declared in the RTE's column type specification, funccoltypmods
-    * lists their declared typmods, funccolcollations their collations.
-    * Otherwise, those fields are NIL.
+    * declared in the RTE's column type specification, funccoltypmods lists
+    * their declared typmods, funccolcollations their collations. Otherwise,
+    * those fields are NIL.
     */
    Node       *funcexpr;       /* expression tree for func call */
    List       *funccoltypes;   /* OID list of column type OIDs */
    List       *funccoltypmods; /* integer list of column typmods */
-   List       *funccolcollations; /* OID list of column collation OIDs */
+   List       *funccolcollations;      /* OID list of column collation OIDs */
 
    /*
     * Fields valid for a values RTE (else NIL):
@@ -746,7 +746,7 @@ typedef struct RangeTblEntry
    bool        self_reference; /* is this a recursive self-reference? */
    List       *ctecoltypes;    /* OID list of column type OIDs */
    List       *ctecoltypmods;  /* integer list of column typmods */
-   List       *ctecolcollations; /* OID list of column collation OIDs */
+   List       *ctecolcollations;       /* OID list of column collation OIDs */
 
    /*
     * Fields valid in all RTEs:
@@ -789,7 +789,7 @@ typedef struct RangeTblEntry
  * here, but it's cheap to get it along with the sortop, and requiring it
  * to be valid eases comparisons to grouping items.)  Note that this isn't
  * actually enough information to determine an ordering: if the sortop is
- * collation-sensitive, a collation OID is needed too.  We don't store the
+ * collation-sensitive, a collation OID is needed too. We don't store the
  * collation in SortGroupClause because it's not available at the time the
  * parser builds the SortGroupClause; instead, consult the exposed collation
  * of the referenced targetlist expression to find out what it is.
@@ -914,7 +914,7 @@ typedef struct CommonTableExpr
    List       *ctecolnames;    /* list of output column names */
    List       *ctecoltypes;    /* OID list of output column type OIDs */
    List       *ctecoltypmods;  /* integer list of output column typmods */
-   List       *ctecolcollations; /* OID list of column collation OIDs */
+   List       *ctecolcollations;       /* OID list of column collation OIDs */
 } CommonTableExpr;
 
 /* Convenience macro to get the output tlist of a CTE's query */
@@ -1102,7 +1102,7 @@ typedef struct SetOperationStmt
 typedef enum ObjectType
 {
    OBJECT_AGGREGATE,
-   OBJECT_ATTRIBUTE,       /* type's attribute, when distinct from column */
+   OBJECT_ATTRIBUTE,           /* type's attribute, when distinct from column */
    OBJECT_CAST,
    OBJECT_COLUMN,
    OBJECT_CONSTRAINT,
@@ -2040,7 +2040,7 @@ typedef struct FetchStmt
  *
  * This represents creation of an index and/or an associated constraint.
  * If indexOid isn't InvalidOid, we are not creating an index, just a
- * UNIQUE/PKEY constraint using an existing index.  isconstraint must always
+ * UNIQUE/PKEY constraint using an existing index. isconstraint must always
  * be true in this case, and the fields describing the index properties are
  * empty.
  * ----------------------
@@ -2319,8 +2319,8 @@ typedef struct AlterEnumStmt
    NodeTag     type;
    List       *typeName;       /* qualified name (list of Value strings) */
    char       *newVal;         /* new enum value's name */
-   char       *newValNeighbor; /* neighboring enum value, if specified */
-   bool        newValIsAfter;  /* place new enum value after neighbor? */
+   char       *newValNeighbor; /* neighboring enum value, if specified */
+   bool        newValIsAfter;  /* place new enum value after neighbor? */
 } AlterEnumStmt;
 
 /* ----------------------
index e5dd04bd1cebfdd9d19fdc6a09014148d1b0ac0d..38b94aaa0128cda87900582f97454a76f1684206 100644 (file)
@@ -184,7 +184,7 @@ extern int  list_length(List *l);
 
 /*
  * forthree -
- *    the same for three lists
+ *   the same for three lists
  */
 #define forthree(cell1, list1, cell2, list2, cell3, list3)         \
    for ((cell1) = list_head(list1), (cell2) = list_head(list2), (cell3) = list_head(list3); \
index 764fc365210619faeffff2bbe7a6e70309204a26..7c085b3f4f66610cf11b0e582f5395e31fb207c8 100644 (file)
@@ -171,7 +171,7 @@ typedef struct ModifyTable
    CmdType     operation;      /* INSERT, UPDATE, or DELETE */
    bool        canSetTag;      /* do we set the command tag/es_processed? */
    List       *resultRelations;    /* integer list of RT indexes */
-   int         resultRelIndex; /* index of first resultRel in plan's list */
+   int         resultRelIndex; /* index of first resultRel in plan's list */
    List       *plans;          /* plan(s) producing source data */
    List       *returningLists; /* per-target-table RETURNING tlists */
    List       *rowMarks;       /* PlanRowMarks (non-locking only) */
@@ -296,7 +296,7 @@ typedef Scan SeqScan;
  * that are being implemented by the index, while indexorderby is modified to
  * have index column Vars on the left-hand side.  Here, multiple expressions
  * must appear in exactly the ORDER BY order, and this is not necessarily the
- * index column order.  Only the expressions are provided, not the auxiliary
+ * index column order. Only the expressions are provided, not the auxiliary
  * sort-order information from the ORDER BY SortGroupClauses; it's assumed
  * that the sort ordering is fully determinable from the top-level operators.
  * indexorderbyorig is unused at run time, but is needed for EXPLAIN.
@@ -309,8 +309,8 @@ typedef struct IndexScan
    Oid         indexid;        /* OID of index to scan */
    List       *indexqual;      /* list of index quals (usually OpExprs) */
    List       *indexqualorig;  /* the same in original form */
-   List       *indexorderby;       /* list of index ORDER BY exprs */
-   List       *indexorderbyorig;   /* the same in original form */
+   List       *indexorderby;   /* list of index ORDER BY exprs */
+   List       *indexorderbyorig;       /* the same in original form */
    ScanDirection indexorderdir;    /* forward or backward or don't care */
 } IndexScan;
 
@@ -406,7 +406,7 @@ typedef struct FunctionScan
    List       *funccolnames;   /* output column names (string Value nodes) */
    List       *funccoltypes;   /* OID list of column type OIDs */
    List       *funccoltypmods; /* integer list of column typmods */
-   List       *funccolcollations;  /* OID list of column collation OIDs */
+   List       *funccolcollations;      /* OID list of column collation OIDs */
 } FunctionScan;
 
 /* ----------------
index 47e571932139ba9e9aabf94881bdfa934382672b..f1e20ef937cecfb69f0ab635fd78bf45232a1301 100644 (file)
@@ -74,7 +74,7 @@ typedef struct RangeVar
    char       *relname;        /* the relation/sequence name */
    InhOption   inhOpt;         /* expand rel by inheritance? recursively act
                                 * on children? */
-   char        relpersistence; /* see RELPERSISTENCE_* in pg_class.h */
+   char        relpersistence; /* see RELPERSISTENCE_* in pg_class.h */
    Alias      *alias;          /* table alias & optional column aliases */
    int         location;       /* token location, or -1 if unknown */
 } RangeVar;
@@ -565,7 +565,8 @@ typedef struct SubPlan
    /* Extra data useful for determining subplan's output type: */
    Oid         firstColType;   /* Type of first column of subplan result */
    int32       firstColTypmod; /* Typmod of first column of subplan result */
-   Oid         firstColCollation;  /* Collation of first column of subplan result */
+   Oid         firstColCollation;      /* Collation of first column of
+                                        * subplan result */
    /* Information about execution strategy: */
    bool        useHashTable;   /* TRUE to store subselect output in a hash
                                 * table (implies we are doing "IN") */
@@ -909,7 +910,7 @@ typedef struct CoalesceExpr
 {
    Expr        xpr;
    Oid         coalescetype;   /* type of expression result */
-   Oid         coalescecollid; /* OID of collation, or InvalidOid if none */
+   Oid         coalescecollid; /* OID of collation, or InvalidOid if none */
    List       *args;           /* the arguments */
    int         location;       /* token location, or -1 if unknown */
 } CoalesceExpr;
@@ -942,7 +943,7 @@ typedef struct MinMaxExpr
  * 'args' carries all other arguments.
  *
  * Note: result type/typmod/collation are not stored, but can be deduced
- * from the XmlExprOp.  The type/typmod fields are just used for display
+ * from the XmlExprOp. The type/typmod fields are just used for display
  * purposes, and are NOT the true result type of the node.
  */
 typedef enum XmlExprOp
index ab7ae2ebbdba1f9c8a2f8dc2d694b5d17cc3370d..78b03e024e8e51eba7849e3f8fb597c3f70853d8 100644 (file)
@@ -215,8 +215,8 @@ typedef struct PlannerInfo
    struct Plan *non_recursive_plan;    /* plan for non-recursive term */
 
    /* These fields are workspace for createplan.c */
-   Relids      curOuterRels;           /* outer rels above current node */
-   List       *curOuterParams;         /* not-yet-assigned NestLoopParams */
+   Relids      curOuterRels;   /* outer rels above current node */
+   List       *curOuterParams; /* not-yet-assigned NestLoopParams */
 
    /* optional private data for join_search_hook, e.g., GEQO */
    void       *join_search_private;
@@ -472,7 +472,7 @@ typedef struct IndexOptInfo
    bool        predOK;         /* true if predicate matches query */
    bool        unique;         /* true if a unique index */
    bool        hypothetical;   /* true if index doesn't really exist */
-   bool        amcanorderbyop; /* does AM support order by operator result? */
+   bool        amcanorderbyop; /* does AM support order by operator result? */
    bool        amoptionalkey;  /* can query omit key for the first column? */
    bool        amsearchnulls;  /* can AM search for NULL/NOT NULL entries? */
    bool        amhasgettuple;  /* does AM have amgettuple interface? */
@@ -492,7 +492,7 @@ typedef struct IndexOptInfo
  * equal to each other, where "equal" is according to the rules of the btree
  * operator family(s) shown in ec_opfamilies, as well as the collation shown
  * by ec_collation.  (We restrict an EC to contain only equalities whose
- * operators belong to the same set of opfamilies.  This could probably be
+ * operators belong to the same set of opfamilies. This could probably be
  * relaxed, but for now it's not worth the trouble, since nearly all equality
  * operators belong to only one btree opclass anyway.  Similarly, we suppose
  * that all or none of the input datatypes are collatable, so that a single
@@ -1436,7 +1436,7 @@ typedef struct MinMaxAggInfo
  * to do so for Param slots.  Duplicate detection is actually *necessary*
  * in the case of NestLoop parameters since it serves to match up the usage
  * of a Param (in the inner scan) with the assignment of the value (in the
- * NestLoop node).  This might result in the same PARAM_EXEC slot being used
+ * NestLoop node). This might result in the same PARAM_EXEC slot being used
  * by multiple NestLoop nodes or SubPlan nodes, but no harm is done since
  * the same value would be assigned anyway.
  */
index e3cf7464df652bab3141a0903b38539801afc76b..08898c13b9fbad8c9baafed4b45e7603228d08d8 100644 (file)
@@ -34,7 +34,7 @@ typedef enum
    CONSTRAINT_EXCLUSION_OFF,   /* do not use c_e */
    CONSTRAINT_EXCLUSION_ON,    /* apply c_e to all rels */
    CONSTRAINT_EXCLUSION_PARTITION      /* apply c_e to otherrels only */
-} ConstraintExclusionType;
+}  ConstraintExclusionType;
 
 
 /*
index 7a24da2c51cab2391e69f7f93287838a26ed2d21..1da2131b096fe6ef3a2056153ee6b81e8f1c9f3f 100644 (file)
@@ -49,9 +49,9 @@ extern TidPath *create_tidscan_path(PlannerInfo *root, RelOptInfo *rel,
                    List *tidquals);
 extern AppendPath *create_append_path(RelOptInfo *rel, List *subpaths);
 extern MergeAppendPath *create_merge_append_path(PlannerInfo *root,
-                                                RelOptInfo *rel,
-                                                List *subpaths,
-                                                List *pathkeys);
+                        RelOptInfo *rel,
+                        List *subpaths,
+                        List *pathkeys);
 extern ResultPath *create_result_path(List *quals);
 extern MaterialPath *create_material_path(RelOptInfo *rel, Path *subpath);
 extern UniquePath *create_unique_path(PlannerInfo *root, RelOptInfo *rel,
index 5ff951e67ea0b3822eb1e4ff0d666fef278c56af..7f1353a2a39d2043122a2cee2469cd1c2fc3fc9d 100644 (file)
@@ -99,7 +99,7 @@ extern bool have_join_order_restriction(PlannerInfo *root,
 extern bool process_equivalence(PlannerInfo *root, RestrictInfo *restrictinfo,
                    bool below_outer_join);
 extern Expr *canonicalize_ec_expression(Expr *expr,
-                                       Oid req_type, Oid req_collation);
+                          Oid req_type, Oid req_collation);
 extern void reconsider_outer_join_clauses(PlannerInfo *root);
 extern EquivalenceClass *get_eclass_for_sort_expr(PlannerInfo *root,
                         Expr *expr,
@@ -164,9 +164,9 @@ extern List *make_pathkeys_for_sortclauses(PlannerInfo *root,
                              List *tlist,
                              bool canonicalize);
 extern void initialize_mergeclause_eclasses(PlannerInfo *root,
-                                           RestrictInfo *restrictinfo);
+                               RestrictInfo *restrictinfo);
 extern void update_mergeclause_eclasses(PlannerInfo *root,
-                          RestrictInfo *restrictinfo);
+                           RestrictInfo *restrictinfo);
 extern List *find_mergeclauses_for_pathkeys(PlannerInfo *root,
                               List *pathkeys,
                               bool outer_keys,
index 976c5439ca6374759cffc461929b3e2c7d830c0e..cce9e1ef1b1433c03eda677ddf11adb42803c404 100644 (file)
@@ -23,7 +23,7 @@ extern PlaceHolderInfo *find_placeholder_info(PlannerInfo *root,
                      PlaceHolderVar *phv);
 extern void find_placeholders_in_jointree(PlannerInfo *root);
 extern void update_placeholder_eval_levels(PlannerInfo *root,
-                                          SpecialJoinInfo *new_sjinfo);
+                              SpecialJoinInfo *new_sjinfo);
 extern void fix_placeholder_input_needed_levels(PlannerInfo *root);
 extern void add_placeholders_to_base_rels(PlannerInfo *root);
 extern void add_placeholders_to_joinrel(PlannerInfo *root,
index c4374121496d53e4cec04b56cb8342cdde0a895b..ff9e2b7f89f0137c9d26e06581ce3324acb25012 100644 (file)
@@ -28,7 +28,7 @@ extern Node *SS_process_sublinks(PlannerInfo *root, Node *expr, bool isQual);
 extern void SS_finalize_plan(PlannerInfo *root, Plan *plan,
                 bool attach_initplans);
 extern Param *SS_make_initplan_from_plan(PlannerInfo *root, Plan *plan,
-                          Oid resulttype, int32 resulttypmod, Oid resultcollation);
+                   Oid resulttype, int32 resulttypmod, Oid resultcollation);
 extern Param *assign_nestloop_param(PlannerInfo *root, Var *var);
 extern int SS_assign_special_param(PlannerInfo *root);
 
index 20acb43504fc4d2813538a2971e7921bd648081e..4332ffc2b9dccd7300e8ab0bffee1adf99cb767a 100644 (file)
@@ -22,6 +22,6 @@ extern void assign_list_collations(ParseState *pstate, List *exprs);
 
 extern void assign_expr_collations(ParseState *pstate, Node *expr);
 
-extern Oid select_common_collation(ParseState *pstate, List *exprs, bool none_ok);
+extern Oid select_common_collation(ParseState *pstate, List *exprs, bool none_ok);
 
 #endif   /* PARSE_COLLATE_H */
index a2011be52f7bc73c9cfeedf651319a6b551d3e41..2fe6f90a2ebe2068437810f62648f0e3e9e3e173 100644 (file)
@@ -28,7 +28,7 @@ typedef struct _InhPaths
    int         nsupers;        /* number of superclasses */
    Oid         self;           /* this class */
    Oid        *supervec;       /* vector of superclasses */
-} InhPaths;
+}  InhPaths;
 
 /* Result codes for func_get_detail */
 typedef enum
index 509e3b7f11adec06b31bef6cde66e697e7f9dc6f..373acd8af723636434ba1ee01b49952af181e450 100644 (file)
@@ -23,15 +23,15 @@ extern Type LookupTypeName(ParseState *pstate, const TypeName *typeName,
               int32 *typmod_p);
 extern Type typenameType(ParseState *pstate, const TypeName *typeName,
             int32 *typmod_p);
-extern Oid typenameTypeId(ParseState *pstate, const TypeName *typeName);
+extern Oid typenameTypeId(ParseState *pstate, const TypeName *typeName);
 extern void typenameTypeIdAndMod(ParseState *pstate, const TypeName *typeName,
-                                Oid *typeid_p, int32 *typmod_p);
+                    Oid *typeid_p, int32 *typmod_p);
 
 extern char *TypeNameToString(const TypeName *typeName);
 extern char *TypeNameListToString(List *typenames);
 
-extern Oid LookupCollation(ParseState *pstate, List *collnames, int location);
-extern Oid GetColumnDefCollation(ParseState *pstate, ColumnDef *coldef, Oid typeOid);
+extern Oid LookupCollation(ParseState *pstate, List *collnames, int location);
+extern Oid GetColumnDefCollation(ParseState *pstate, ColumnDef *coldef, Oid typeOid);
 
 extern Type typeidType(Oid id);
 
index 4d7f64856894654996efd608ebb5678f4c1fff89..21e2b0b126aee3cdbd268f2af92915cb8c04043a 100644 (file)
@@ -23,7 +23,7 @@ typedef enum
    BACKSLASH_QUOTE_OFF,
    BACKSLASH_QUOTE_ON,
    BACKSLASH_QUOTE_SAFE_ENCODING
-} BackslashQuoteType;
+}  BackslashQuoteType;
 
 /* GUC variables in scan.l (every one of these is a bad idea :-() */
 extern int backslash_quote;
index 1ab1ac838f266ac465024c8b309e85ecc49a6da2..f04be95b459b2053c66495979b95f0b697a2af13 100644 (file)
@@ -24,7 +24,7 @@ typedef enum TrackFunctionsLevel
    TRACK_FUNC_OFF,
    TRACK_FUNC_PL,
    TRACK_FUNC_ALL
-} TrackFunctionsLevel;
+}  TrackFunctionsLevel;
 
 /* ----------
  * The types of backend -> collector messages
@@ -628,7 +628,7 @@ typedef struct PgBackendStatus
    Oid         st_databaseid;
    Oid         st_userid;
    SockAddr    st_clientaddr;
-   char       *st_clienthostname; /* MUST be null-terminated */
+   char       *st_clienthostname;      /* MUST be null-terminated */
 
    /* Is backend currently waiting on an lmgr lock? */
    bool        st_waiting;
index f442cca5236eb6dce51aad877ce4bb19c0f92136..4fe7c61c75ef50ff38acb46ce5c1b142644cd496 100644 (file)
@@ -4,8 +4,8 @@
 #define WIN32_ONLY_COMPILER
 #endif
 
-/* 
- * Make sure _WIN32_WINNT has the minumum required value. 
+/*
+ * Make sure _WIN32_WINNT has the minumum required value.
  * Leave a higher value in place.
 */
 #if defined(_WIN32_WINNT) && _WIN32_WINNT < 0x0501
@@ -27,7 +27,7 @@
 
 #undef ERROR
 
-/* 
+/*
  * The Mingw64 headers choke if this is already defined - they
  * define it themselves.
  */
@@ -365,7 +365,7 @@ typedef unsigned short mode_t;
 /* see also S_IRGRP etc below */
 #define S_ISDIR(m) (((m) & S_IFMT) == S_IFDIR)
 #define S_ISREG(m) (((m) & S_IFMT) == S_IFREG)
-#endif /* __BORLANDC__ */
+#endif   /* __BORLANDC__ */
 
 #define F_OK 0
 #define W_OK 2
@@ -393,8 +393,7 @@ typedef unsigned short mode_t;
 #define _O_SHORT_LIVED O_SHORT_LIVED
 #endif   /* ifndef O_RANDOM */
 #endif   /* __BORLANDC__ */
-
-#endif /* WIN32_ONLY_COMPILER */
+#endif   /* WIN32_ONLY_COMPILER */
 
 /* These aren't provided by either MingW or MSVC */
 #ifndef __BORLANDC__
@@ -406,4 +405,5 @@ typedef unsigned short mode_t;
 #define S_IWOTH 0
 #define S_IXOTH 0
 #define S_IRWXO 0
-#endif /* __BORLANDC__ */
+
+#endif   /* __BORLANDC__ */
index 6fc037580fa92a7ea455be2433378fda49b5cef4..e027f9203b9879227a86b3dc4d563893dfd12436 100644 (file)
@@ -35,7 +35,7 @@ typedef enum ReplNodeTag
 typedef struct IdentifySystemCmd
 {
    NodeTag     type;
-}  IdentifySystemCmd;
+} IdentifySystemCmd;
 
 
 /* ----------------------
@@ -46,7 +46,7 @@ typedef struct BaseBackupCmd
 {
    NodeTag     type;
    List       *options;
-}  BaseBackupCmd;
+} BaseBackupCmd;
 
 
 /* ----------------------
@@ -57,6 +57,6 @@ typedef struct StartReplicationCmd
 {
    NodeTag     type;
    XLogRecPtr  startpoint;
-}  StartReplicationCmd;
+} StartReplicationCmd;
 
 #endif   /* REPLNODES_H */
index 728e2c8f2d2772b6d5704228fdc3abbe14483f0c..efbebbcc06e38f731a323cde26c02d2302ef3a58 100644 (file)
@@ -44,7 +44,7 @@ extern void SyncRepReleaseWaiters(void);
 extern void SyncRepUpdateSyncStandbysDefined(void);
 
 /* called by various procs */
-extern int SyncRepWakeQueue(bool all);
+extern int SyncRepWakeQueue(bool all);
 extern bool check_synchronous_standby_names(char **newval, void **extra, GucSource source);
 
 #endif   /* _SYNCREP_H */
index 9baca948a238227af417aad1c2d0ad6f77737a56..94146679fa6925be5303aa6d049054c05271afb1 100644 (file)
@@ -48,9 +48,9 @@ typedef struct
 typedef struct
 {
    /*
-    * The xlog locations that have been written, flushed, and applied
-    * by standby-side. These may be invalid if the standby-side is unable
-    * to or chooses not to report these.
+    * The xlog locations that have been written, flushed, and applied by
+    * standby-side. These may be invalid if the standby-side is unable to or
+    * chooses not to report these.
     */
    XLogRecPtr  write;
    XLogRecPtr  flush;
@@ -70,11 +70,11 @@ typedef struct
 {
    /*
     * The current xmin and epoch from the standby, for Hot Standby feedback.
-    * This may be invalid if the standby-side does not support feedback,
-    * or Hot Standby is not yet available.
+    * This may be invalid if the standby-side does not support feedback, or
+    * Hot Standby is not yet available.
     */
-   TransactionId   xmin;
-   uint32          epoch;
+   TransactionId xmin;
+   uint32      epoch;
 
    /* Sender's system clock at the time of transmission */
    TimestampTz sendTime;
index 775232b6e6f98b02c852334c4b673b8711c728cb..816fa5ba72a82b4c7cb7bea057749c0f14b9544e 100644 (file)
@@ -17,7 +17,7 @@
 #include "pgtime.h"
 
 extern bool am_walreceiver;
-extern int wal_receiver_status_interval;
+extern int wal_receiver_status_interval;
 extern bool hot_standby_feedback;
 
 /*
@@ -52,17 +52,17 @@ typedef struct
    pg_time_t   startTime;
 
    /*
-    * receiveStart is the first byte position that will be received.
-    * When startup process starts the walreceiver, it sets receiveStart
-    * to the point where it wants the streaming to begin.
+    * receiveStart is the first byte position that will be received. When
+    * startup process starts the walreceiver, it sets receiveStart to the
+    * point where it wants the streaming to begin.
     */
    XLogRecPtr  receiveStart;
 
    /*
     * receivedUpto-1 is the last byte position that has already been
-    * received.  At the first startup of walreceiver, receivedUpto is
-    * set to receiveStart. After that, walreceiver updates this whenever
-    * it flushes the received WAL to disk.
+    * received.  At the first startup of walreceiver, receivedUpto is set to
+    * receiveStart. After that, walreceiver updates this whenever it flushes
+    * the received WAL to disk.
     */
    XLogRecPtr  receivedUpto;
 
index 2670a2e80679a3b97a50c71584d6c56b1241dc50..6ee8668d0a4e34b95c3bfc81d7ac0ce35f65abea 100644 (file)
@@ -25,7 +25,7 @@ typedef enum WalSndState
    WALSNDSTATE_BACKUP,
    WALSNDSTATE_CATCHUP,
    WALSNDSTATE_STREAMING
-}  WalSndState;
+} WalSndState;
 
 /*
  * Each walsender has a WalSnd struct in shared memory.
@@ -37,9 +37,9 @@ typedef struct WalSnd
    XLogRecPtr  sentPtr;        /* WAL has been sent up to this point */
 
    /*
-    * The xlog locations that have been written, flushed, and applied
-    * by standby-side. These may be invalid if the standby-side has not
-    * offered values yet.
+    * The xlog locations that have been written, flushed, and applied by
+    * standby-side. These may be invalid if the standby-side has not offered
+    * values yet.
     */
    XLogRecPtr  write;
    XLogRecPtr  flush;
@@ -49,17 +49,17 @@ typedef struct WalSnd
    slock_t     mutex;
 
    /*
-    * Latch used by backends to wake up this walsender when it has work
-    * to do.
+    * Latch used by backends to wake up this walsender when it has work to
+    * do.
     */
    Latch       latch;
 
    /*
-    * The priority order of the standby managed by this WALSender, as
-    * listed in synchronous_standby_names, or 0 if not-listed.
-    * Protected by SyncRepLock.
+    * The priority order of the standby managed by this WALSender, as listed
+    * in synchronous_standby_names, or 0 if not-listed. Protected by
+    * SyncRepLock.
     */
-    int    sync_standby_priority;
+   int         sync_standby_priority;
 } WalSnd;
 
 extern WalSnd *MyWalSnd;
@@ -70,11 +70,11 @@ typedef struct
    /*
     * Synchronous replication queue. Protected by SyncRepLock.
     */
-   SHM_QUEUE SyncRepQueue;
+   SHM_QUEUE   SyncRepQueue;
 
    /*
-    * Current location of the head of the queue. All waiters should have
-    * waitLSN that follows this value. Protected by SyncRepLock.
+    * Current location of the head of the queue. All waiters should have a
+    * waitLSN that follows this value. Protected by SyncRepLock.
     */
    XLogRecPtr  lsn;
 
index 11e8173454a467a9487f885b52683f8f44beb50f..77417ba034ae3581bd3a95bc10d0ccd9d0e4db32 100644 (file)
@@ -22,7 +22,7 @@ extern bool IsDefinedRewriteRule(Oid owningRel, const char *ruleName);
 extern void SetRelationRuleStatus(Oid relationId, bool relHasRules,
                      bool relIsBecomingView);
 
-extern Oid get_rewrite_oid(Oid relid, const char *rulename, bool missing_ok);
-extern Oid get_rewrite_oid_without_relid(const char *rulename, Oid *relid);
+extern Oid get_rewrite_oid(Oid relid, const char *rulename, bool missing_ok);
+extern Oid get_rewrite_oid_without_relid(const char *rulename, Oid *relid);
 
 #endif   /* REWRITESUPPORT_H */
index b702da24358b275293a09d47c508ab7baddf504c..ec0ebc6a65246e1fc8efea93cc94079f85e0ec6e 100644 (file)
@@ -22,6 +22,6 @@ typedef int BackendId;            /* unique currently active backend identifier */
 
 #define InvalidBackendId       (-1)
 
-extern PGDLLIMPORT BackendId MyBackendId;  /* backend id of this backend */
+extern PGDLLIMPORT BackendId MyBackendId;      /* backend id of this backend */
 
 #endif   /* BACKENDID_H */
index 0652bdf711d06c77cb7151e5af6eae102fd6db01..b7d4ea53a4d1749b93e464c5e941fa0f52b1f3f3 100644 (file)
@@ -37,7 +37,8 @@
 #define BM_JUST_DIRTIED            (1 << 5)        /* dirtied since write started */
 #define BM_PIN_COUNT_WAITER        (1 << 6)        /* have waiter for sole pin */
 #define BM_CHECKPOINT_NEEDED   (1 << 7)        /* must write for checkpoint */
-#define BM_PERMANENT           (1 << 8)        /* permanent relation (not unlogged) */
+#define BM_PERMANENT           (1 << 8)        /* permanent relation (not
+                                                * unlogged) */
 
 typedef bits16 BufFlags;
 
index f64e13bed2d02afe01d049f7faad6fe742e894a0..03ec07119b904f2ddfa86516cc75f7636757eaa0 100644 (file)
  */
 typedef struct
 {
-   sig_atomic_t    is_set;
-   bool            is_shared;
-   int             owner_pid;
+   sig_atomic_t is_set;
+   bool        is_shared;
+   int         owner_pid;
 #ifdef WIN32
-   HANDLE          event;
+   HANDLE      event;
 #endif
 } Latch;
 
@@ -39,10 +39,11 @@ extern void InitSharedLatch(volatile Latch *latch);
 extern void OwnLatch(volatile Latch *latch);
 extern void DisownLatch(volatile Latch *latch);
 extern bool WaitLatch(volatile Latch *latch, long timeout);
-extern int WaitLatchOrSocket(volatile Latch *latch, pgsocket sock,
+extern int WaitLatchOrSocket(volatile Latch *latch, pgsocket sock,
                  bool forRead, bool forWrite, long timeout);
 extern void SetLatch(volatile Latch *latch);
 extern void ResetLatch(volatile Latch *latch);
+
 #define TestLatch(latch) (((volatile Latch *) latch)->is_set)
 
 /*
index 0ca8ca0cc7e55e3a672807e13fdce08fffc2ad0b..7606b0961cc28d9211a8d3e401173845a17e8500 100644 (file)
@@ -29,7 +29,7 @@ typedef enum
    PMSIGNAL_START_AUTOVAC_LAUNCHER,    /* start an autovacuum launcher */
    PMSIGNAL_START_AUTOVAC_WORKER,      /* start an autovacuum worker */
    PMSIGNAL_START_WALRECEIVER, /* start a walreceiver */
-   PMSIGNAL_ADVANCE_STATE_MACHINE, /* advance postmaster's state machine */
+   PMSIGNAL_ADVANCE_STATE_MACHINE,     /* advance postmaster's state machine */
 
    NUM_PMSIGNALS               /* Must be last value of enum! */
 } PMSignalReason;
index 055612563675c066778eb2f08b7a7dc6ca442714..bd42004c2cd8a2b102d91ae411054a4f61b9007d 100644 (file)
@@ -114,7 +114,7 @@ typedef struct PredXactListElementData
 {
    SHM_QUEUE   link;
    SERIALIZABLEXACT sxact;
-} PredXactListElementData;
+}  PredXactListElementData;
 
 typedef struct PredXactListElementData *PredXactListElement;
 
@@ -152,7 +152,7 @@ typedef struct PredXactListData
    SERIALIZABLEXACT *OldCommittedSxact;        /* shared copy of dummy sxact */
 
    PredXactListElement element;
-} PredXactListData;
+}  PredXactListData;
 
 typedef struct PredXactListData *PredXactList;
 
@@ -176,7 +176,7 @@ typedef struct RWConflictData
    SHM_QUEUE   inLink;         /* link for list of conflicts in to a sxact */
    SERIALIZABLEXACT *sxactOut;
    SERIALIZABLEXACT *sxactIn;
-} RWConflictData;
+}  RWConflictData;
 
 typedef struct RWConflictData *RWConflict;
 
@@ -187,7 +187,7 @@ typedef struct RWConflictPoolHeaderData
 {
    SHM_QUEUE   availableList;
    RWConflict  element;
-} RWConflictPoolHeaderData;
+}  RWConflictPoolHeaderData;
 
 typedef struct RWConflictPoolHeaderData *RWConflictPoolHeader;
 
@@ -266,7 +266,7 @@ typedef struct PREDICATELOCKTARGETTAG
  * version, before the reading transaction is obsolete, we need some way to
  * prevent errors from reuse of a tuple ID.  Rather than attempting to clean
  * up the targets as the related tuples are pruned or vacuumed, we check the
- * xmin on access.  This should be far less costly.
+ * xmin on access. This should be far less costly.
  */
 typedef struct PREDICATELOCKTARGET PREDICATELOCKTARGET;
 
@@ -353,7 +353,7 @@ typedef enum PredicateLockTargetType
    PREDLOCKTAG_PAGE,
    PREDLOCKTAG_TUPLE
    /* TODO SSI: Other types may be needed for index locking */
-}  PredicateLockTargetType;
+} PredicateLockTargetType;
 
 
 /*
@@ -419,7 +419,7 @@ typedef enum TwoPhasePredicateRecordType
 {
    TWOPHASEPREDICATERECORD_XACT,
    TWOPHASEPREDICATERECORD_LOCK
-}  TwoPhasePredicateRecordType;
+} TwoPhasePredicateRecordType;
 
 /*
  * Per-transaction information to reconstruct a SERIALIZABLEXACT. Not
index f2e063c6cb5c1dbf9b3b3395a99070e26f5119b5..4819cb8110817dd15a818f20b3a1fa9f1d756164 100644 (file)
@@ -124,10 +124,10 @@ struct PGPROC
     * syncRepState must not be touched except by owning process or WALSender.
     * syncRepLinks used only while holding SyncRepLock.
     */
-   Latch       waitLatch;          /* allow us to wait for sync rep */
-   XLogRecPtr  waitLSN;            /* waiting for this LSN or higher */
-   int         syncRepState;       /* wait state for sync rep */
-   SHM_QUEUE   syncRepLinks;       /* list link if process is in syncrep queue */
+   Latch       waitLatch;      /* allow us to wait for sync rep */
+   XLogRecPtr  waitLSN;        /* waiting for this LSN or higher */
+   int         syncRepState;   /* wait state for sync rep */
+   SHM_QUEUE   syncRepLinks;   /* list link if process is in syncrep queue */
 
    /*
     * All PROCLOCK objects for locks held or awaited by this backend are
index 334f9a25c18ab4ad692d37eda5df9bbc91202a10..3c20fc48f67670d1df026277c7bccf95f1225107 100644 (file)
@@ -60,7 +60,7 @@ extern VirtualTransactionId *GetCurrentVirtualXIDs(TransactionId limitXmin,
 extern VirtualTransactionId *GetConflictingVirtualXIDs(TransactionId limitXmin, Oid dbOid);
 extern pid_t CancelVirtualTransaction(VirtualTransactionId vxid, ProcSignalReason sigmode);
 
-extern bool    MinimumActiveBackends(int min);
+extern bool MinimumActiveBackends(int min);
 extern int CountDBBackends(Oid databaseid);
 extern void CancelDBBackends(Oid databaseid, ProcSignalReason sigmode, bool conflictPending);
 extern int CountUserBackends(Oid roleid);
index d8eb4c6be9b50ae791f2043037180accde156965..659a339e61eb4b522cc0b372a332974db53b1edc 100644 (file)
@@ -28,7 +28,7 @@ typedef enum ForkNumber
    MAIN_FORKNUM = 0,
    FSM_FORKNUM,
    VISIBILITYMAP_FORKNUM,
-   INIT_FORKNUM    
+   INIT_FORKNUM
 
    /*
     * NOTE: if you add a new fork, change MAX_FORKNUM below and update the
@@ -83,7 +83,7 @@ typedef struct RelFileNode
  */
 typedef struct RelFileNodeBackend
 {
-   RelFileNode node;
+   RelFileNode node;
    BackendId   backend;
 } RelFileNodeBackend;
 
index 86c7e748e32aac33adecb9f6ef92187035bbe6fd..f59b30fcab2c6fc04bc94d8946b7ebd3640716f5 100644 (file)
@@ -152,10 +152,10 @@ typedef struct
    bool        usecompound;
 
    /*
-    * Remaining fields are only used during dictionary construction;
-    * they are set up by NIStartBuild and cleared by NIFinishBuild.
+    * Remaining fields are only used during dictionary construction; they are
+    * set up by NIStartBuild and cleared by NIFinishBuild.
     */
-   MemoryContext   buildCxt;   /* temp context for construction */
+   MemoryContext buildCxt;     /* temp context for construction */
 
    /* Temporary array of all words in the dict file */
    SPELL     **Spell;
index b28b764fd528e976daba62efc46912ceb1467732..75bdaa5343ebbba855c948f5cd7bd9de65b43e47 100644 (file)
@@ -227,7 +227,7 @@ extern bool is_member_of_role(Oid member, Oid role);
 extern bool is_member_of_role_nosuper(Oid member, Oid role);
 extern bool is_admin_of_role(Oid member, Oid role);
 extern void check_is_member_of_role(Oid member, Oid role);
-extern Oid get_role_oid(const char *rolname, bool missing_ok);
+extern Oid get_role_oid(const char *rolname, bool missing_ok);
 
 extern void select_best_grantor(Oid roleId, AclMode privileges,
                    const Acl *acl, Oid ownerId,
index 72b0cdea7f7b316f9b0a261b2ec7f3eb1d556e22..14215db1b4f04faa85c95f43eb5cbdf1c5baf590 100644 (file)
@@ -441,7 +441,7 @@ extern Datum pg_relation_filepath(PG_FUNCTION_ARGS);
 
 /* genfile.c */
 extern bytea *read_binary_file(const char *filename,
-                              int64 seek_offset, int64 bytes_to_read);
+                int64 seek_offset, int64 bytes_to_read);
 extern Datum pg_stat_file(PG_FUNCTION_ARGS);
 extern Datum pg_read_file(PG_FUNCTION_ARGS);
 extern Datum pg_read_file_all(PG_FUNCTION_ARGS);
index df247c40a9dc4c500e4902dd053db8263e7156f5..b64a6fff6617aa8207ef509565ba3b7cf81d84ef 100644 (file)
@@ -21,7 +21,7 @@ typedef enum
 {
    BYTEA_OUTPUT_ESCAPE,
    BYTEA_OUTPUT_HEX
-} ByteaOutputType;
+}  ByteaOutputType;
 
 extern int bytea_output;       /* ByteaOutputType, but int for GUC enum */
 
index 9911d2079364f98fdf6b2e077d59def8c3498e69..2880304fdbcfd6626888b09274d94d7cd80be7a8 100644 (file)
@@ -328,7 +328,7 @@ extern int  j2day(int jd);
 extern bool CheckDateTokenTables(void);
 
 extern void ConvertTimeZoneAbbrevs(TimeZoneAbbrevTable *tbl,
-                                  struct tzEntry *abbrevs, int n);
+                      struct tzEntry *abbrevs, int n);
 extern void InstallTimeZoneAbbrevs(TimeZoneAbbrevTable *tbl);
 
 extern Datum pg_timezone_abbrevs(PG_FUNCTION_ARGS);
index 1f2a9f53c14934e901d3ea6fbc23b7b8de095801..fb5ef1620b75e57934e4845a604bfc6ad32ff691 100644 (file)
@@ -203,7 +203,8 @@ __attribute__((format(printf, 2, 3)));
 /* Support for constructing error strings separately from ereport() calls */
 
 extern void pre_format_elog_string(int errnumber, const char *domain);
-extern char *format_elog_string(const char *fmt,...)
+extern char *
+format_elog_string(const char *fmt,...)
 /* This extension allows gcc to check the format string for consistency with
    the supplied arguments. */
 __attribute__((format(printf, 1, 2)));
@@ -335,7 +336,7 @@ typedef enum
    PGERROR_TERSE,              /* single-line error messages */
    PGERROR_DEFAULT,            /* recommended style */
    PGERROR_VERBOSE             /* all the facts, ma'am */
-} PGErrorVerbosity;
+}  PGErrorVerbosity;
 
 extern int Log_error_verbosity;
 extern char *Log_line_prefix;
index 452310f2bdfe8d6d0f0b6e17470bbb99a4a95b7a..5a42d8cec3ddc39b56eb68ab5d1369ad710f68f7 100644 (file)
@@ -102,11 +102,11 @@ typedef enum
  */
 typedef struct ConfigVariable
 {
-   char       *name;
-   char       *value;
+   char       *name;
+   char       *value;
    char       *filename;
    int         sourceline;
-   struct ConfigVariable  *next;
+   struct ConfigVariable *next;
 } ConfigVariable;
 
 extern bool ParseConfigFile(const char *config_file, const char *calling_file,
index b6ceb26c8bedcadcd3d54343fb1f4772ab76a5e8..0a419dcf65b4b3ed5ec9905aa06c567602cc66e1 100644 (file)
@@ -61,7 +61,7 @@ extern AttrNumber get_attnum(Oid relid, const char *attname);
 extern Oid get_atttype(Oid relid, AttrNumber attnum);
 extern int32 get_atttypmod(Oid relid, AttrNumber attnum);
 extern void get_atttypetypmodcoll(Oid relid, AttrNumber attnum,
-                 Oid *typid, int32 *typmod, Oid *collid);
+                     Oid *typid, int32 *typmod, Oid *collid);
 extern char *get_collation_name(Oid colloid);
 extern char *get_constraint_name(Oid conoid);
 extern Oid get_opclass_family(Oid opclass);
@@ -125,7 +125,7 @@ extern void getTypeOutputInfo(Oid type, Oid *typOutput, bool *typIsVarlena);
 extern void getTypeBinaryInputInfo(Oid type, Oid *typReceive, Oid *typIOParam);
 extern void getTypeBinaryOutputInfo(Oid type, Oid *typSend, bool *typIsVarlena);
 extern Oid get_typmodin(Oid typid);
-extern Oid get_typcollation(Oid typid);
+extern Oid get_typcollation(Oid typid);
 extern bool type_is_collatable(Oid typid);
 extern Oid getBaseType(Oid typid);
 extern Oid getBaseTypeAndTypmod(Oid typid, int32 *typmod);
index 6147634817c1984552fa12212b50ce1b5ded61fe..229c2c0606aaaaa57782c793b8a738e624bb23b4 100644 (file)
@@ -56,7 +56,7 @@ typedef struct NumericData *Numeric;
  * Utility functions in numeric.c
  */
 extern bool numeric_is_nan(Numeric num);
-int32 numeric_maximum_size(int32 typmod);
+int32      numeric_maximum_size(int32 typmod);
 extern char *numeric_out_sci(Numeric num, int scale);
 
 #endif   /* _PG_NUMERIC_H_ */
index 3068003caa35587b34c5a654708689a2e91ceb99..6af1cd5b10690795ae16eae7d6cfeca383594c49 100644 (file)
@@ -72,7 +72,7 @@
  * all the auxiliary queries.)
  *
  * PORTAL_ONE_MOD_WITH: the portal contains one single SELECT query, but
- * it has data-modifying CTEs.  This is currently treated the same as the
+ * it has data-modifying CTEs. This is currently treated the same as the
  * PORTAL_ONE_RETURNING case because of the possibility of needing to fire
  * triggers.  It may act more like PORTAL_ONE_SELECT in future.
  *
@@ -174,7 +174,7 @@ typedef struct PortalData
    /* Presentation data, primarily used by the pg_cursors system view */
    TimestampTz creation_time;  /* time at which this portal was defined */
    bool        visible;        /* include this portal in pg_cursors? */
-} PortalData;
+}  PortalData;
 
 /*
  * PortalIsValid
index c506a689e0ac32c98441c231a10bf6622af10769..c0dc63e4634bd9cde0d37d5195508d248a72e3f1 100644 (file)
  * RBNode is intended to be used as the first field of a larger struct,
  * whose additional fields carry whatever payload data the caller needs
  * for a tree entry.  (The total size of that larger struct is passed to
- * rb_create.)  RBNode is declared here to support this usage, but
+ * rb_create.) RBNode is declared here to support this usage, but
  * callers must treat it as an opaque struct.
  */
 typedef struct RBNode
 {
    char        iteratorState;  /* workspace for iterating through tree */
-   char        color;          /* node's current color, red or black */
+   char color;                 /* node's current color, red or black */
    struct RBNode *left;        /* left child, or RBNIL if none */
    struct RBNode *right;       /* right child, or RBNIL if none */
    struct RBNode *parent;      /* parent, or NULL (not RBNIL!) if none */
@@ -63,4 +63,4 @@ extern void rb_delete(RBTree *rb, RBNode *node);
 extern void rb_begin_iterate(RBTree *rb, RBOrderControl ctrl);
 extern RBNode *rb_iterate(RBTree *rb);
 
-#endif /* RBTREE_H */
+#endif   /* RBTREE_H */
index d47c4beaa5cac5ed37fc968488b2ab1519c1d18a..e2c2fa9ae4560a596690b87f514e2cd211de79ae 100644 (file)
@@ -179,9 +179,9 @@ typedef struct RelationData
     * index access support info (used only for an index relation)
     *
     * Note: only default support procs for each opclass are cached, namely
-    * those with lefttype and righttype equal to the opclass's opcintype.
-    * The arrays are indexed by support function number, which is a
-    * sufficient identifier given that restriction.
+    * those with lefttype and righttype equal to the opclass's opcintype. The
+    * arrays are indexed by support function number, which is a sufficient
+    * identifier given that restriction.
     *
     * Note: rd_amcache is available for index AMs to cache private data about
     * an index.  This must be just a cache since it may get reset at any time
@@ -203,7 +203,7 @@ typedef struct RelationData
    Oid        *rd_exclprocs;   /* OIDs of exclusion ops' procs, if any */
    uint16     *rd_exclstrats;  /* exclusion ops' strategy numbers, if any */
    void       *rd_amcache;     /* available for use by index AM */
-   Oid        *rd_indcollation; /* OIDs of index collations */
+   Oid        *rd_indcollation;    /* OIDs of index collations */
 
    /*
     * Hack for CLUSTER, rewriting ALTER TABLE, etc: when writing a new
index 59505d4b577e0fc2c4eef537a162bf2545be78d2..a2085df8691fcbd9db29ac82f66b51d9a459c023 100644 (file)
@@ -41,9 +41,9 @@ typedef struct Tuplesortstate Tuplesortstate;
  * The "heap" API actually stores/sorts MinimalTuples, which means it doesn't
  * preserve the system columns (tuple identity and transaction visibility
  * info).  The sort keys are specified by column numbers within the tuples
- * and sort operator OIDs.  We save some cycles by passing and returning the
+ * and sort operator OIDs. We save some cycles by passing and returning the
  * tuples in TupleTableSlots, rather than forming actual HeapTuples (which'd
- * have to be converted to MinimalTuples).  This API works well for sorts
+ * have to be converted to MinimalTuples). This API works well for sorts
  * executed as parts of plan trees.
  *
  * The "cluster" API stores/sorts full HeapTuples including all visibility
@@ -52,7 +52,7 @@ typedef struct Tuplesortstate Tuplesortstate;
  * go with this API, not the "begin_heap" one!
  *
  * The "index_btree" API stores/sorts IndexTuples (preserving all their
- * header fields).  The sort keys are specified by a btree index definition.
+ * header fields). The sort keys are specified by a btree index definition.
  *
  * The "index_hash" API is similar to index_btree, but the tuples are
  * actually sorted by their hash codes not the raw data.
@@ -60,11 +60,11 @@ typedef struct Tuplesortstate Tuplesortstate;
 
 extern Tuplesortstate *tuplesort_begin_heap(TupleDesc tupDesc,
                     int nkeys, AttrNumber *attNums,
-                    Oid *sortOperators, Oid *collations, bool *nullsFirstFlags,
+                 Oid *sortOperators, Oid *collations, bool *nullsFirstFlags,
                     int workMem, bool randomAccess);
 extern Tuplesortstate *tuplesort_begin_cluster(TupleDesc tupDesc,
-                                              Relation indexRel,
-                                              int workMem, bool randomAccess);
+                       Relation indexRel,
+                       int workMem, bool randomAccess);
 extern Tuplesortstate *tuplesort_begin_index_btree(Relation indexRel,
                            bool enforceUnique,
                            int workMem, bool randomAccess);
@@ -72,7 +72,7 @@ extern Tuplesortstate *tuplesort_begin_index_hash(Relation indexRel,
                           uint32 hash_mask,
                           int workMem, bool randomAccess);
 extern Tuplesortstate *tuplesort_begin_datum(Oid datumType,
-                     Oid sortOperator, Oid sortCollation, bool nullsFirstFlag,
+                   Oid sortOperator, Oid sortCollation, bool nullsFirstFlag,
                      int workMem, bool randomAccess);
 
 extern void tuplesort_set_bound(Tuplesortstate *state, int64 bound);
index 2154657d88e9b6898cbc26ce81bfda25f22f9f35..e2f8c9ce3cf62d0b0b0093162a91086b67972a69 100644 (file)
@@ -53,9 +53,9 @@ typedef struct TypeCacheEntry
 
    /*
     * Pre-set-up fmgr call info for the equality operator, the btree
-    * comparison function, and the hash calculation function.  These are kept
+    * comparison function, and the hash calculation function.  These are kept
     * in the type cache to avoid problems with memory leaks in repeated calls
-    * to array_eq, array_cmp, hash_array.  There is not currently a need to
+    * to array_eq, array_cmp, hash_array.  There is not currently a need to
     * maintain call info for the lt_opr or gt_opr.
     */
    FmgrInfo    eq_opr_finfo;
@@ -70,7 +70,7 @@ typedef struct TypeCacheEntry
    TupleDesc   tupDesc;
 
    /*
-    * Private information about an enum type.  NULL if not enum or
+    * Private information about an enum type.  NULL if not enum or
     * information hasn't been requested.
     */
    struct TypeCacheEnumData *enumData;
index 847a1d33e23ab7f77176f8d3ac2c64fa070facc2..e329d52e247b961d1ee313c65db366ed169ae2ca 100644 (file)
@@ -80,6 +80,7 @@ extern Datum bitle(PG_FUNCTION_ARGS);
 extern Datum bitgt(PG_FUNCTION_ARGS);
 extern Datum bitge(PG_FUNCTION_ARGS);
 extern Datum bitcmp(PG_FUNCTION_ARGS);
+
 /* avoid the names bitand and bitor, since they are C++ keywords */
 extern Datum bit_and(PG_FUNCTION_ARGS);
 extern Datum bit_or(PG_FUNCTION_ARGS);
index 74464e82d692b0bca65e24ae296fd45d0d28b152..6359cd6043b0ef880a75b5fdca53a2a498febc9a 100644 (file)
@@ -66,7 +66,7 @@ typedef enum
    XML_STANDALONE_NO,
    XML_STANDALONE_NO_VALUE,
    XML_STANDALONE_OMITTED
-} XmlStandaloneType;
+}  XmlStandaloneType;
 
 extern void pg_xml_init(void);
 extern void xml_ereport(int level, int sqlcode, const char *msg);
@@ -87,7 +87,7 @@ typedef enum
 {
    XMLBINARY_BASE64,
    XMLBINARY_HEX
-} XmlBinaryType;
+}  XmlBinaryType;
 
 extern int xmlbinary;          /* XmlBinaryType, but int for guc enum */
 
index af185d533b95908cb8a51639231f56a58e327de2..3b30864866bfb676f60ea1e70d9f9bc2cd662d50 100644 (file)
@@ -179,7 +179,7 @@ static char *
 ecpg_strndup(const char *str, size_t len)
 {
    size_t      real_len = strlen(str);
-   int     use_len = (int) ((real_len > len) ? len : real_len);
+   int         use_len = (int) ((real_len > len) ? len : real_len);
 
    char       *new = malloc(use_len + 1);
 
@@ -983,33 +983,33 @@ ldchar(char *src, int len, char *dest)
 int
 rgetmsg(int msgnum, char *s, int maxsize)
 {
-   (void) msgnum; /* keep the compiler quiet */
-   (void) s; /* keep the compiler quiet */
-   (void) maxsize; /* keep the compiler quiet */
+   (void) msgnum;              /* keep the compiler quiet */
+   (void) s;                   /* keep the compiler quiet */
+   (void) maxsize;             /* keep the compiler quiet */
    return 0;
 }
 
 int
 rtypalign(int offset, int type)
 {
-   (void) offset; /* keep the compiler quiet */
-   (void) type; /* keep the compiler quiet */
+   (void) offset;              /* keep the compiler quiet */
+   (void) type;                /* keep the compiler quiet */
    return 0;
 }
 
 int
 rtypmsize(int type, int len)
 {
-   (void) type; /* keep the compiler quiet */
-   (void) len; /* keep the compiler quiet */
+   (void) type;                /* keep the compiler quiet */
+   (void) len;                 /* keep the compiler quiet */
    return 0;
 }
 
 int
 rtypwidth(int sqltype, int sqllen)
 {
-   (void) sqltype; /* keep the compiler quiet */
-   (void) sqllen; /* keep the compiler quiet */
+   (void) sqltype;             /* keep the compiler quiet */
+   (void) sqllen;              /* keep the compiler quiet */
    return 0;
 }
 
index 1f91878395543aac0fc1250c28255083b708afdb..997046b38b73a2c535135c2971ba6b9d46b5278d 100644 (file)
@@ -216,7 +216,7 @@ ECPGnoticeReceiver(void *arg, const PGresult *result)
    struct sqlca_t *sqlca = ECPGget_sqlca();
    int         sqlcode;
 
-   (void) arg; /* keep the compiler quiet */
+   (void) arg;                 /* keep the compiler quiet */
    if (sqlstate == NULL)
        sqlstate = ECPG_SQLSTATE_ECPG_INTERNAL_ERROR;
 
index 542bfc0c7d5bc9629b521f117cf06e53798c7da1..a09cd26a542e4ce250f549b428ac74164d11593a 100644 (file)
@@ -75,7 +75,7 @@ static pthread_once_t auto_mem_once = PTHREAD_ONCE_INIT;
 static void
 auto_mem_destructor(void *arg)
 {
-   (void) arg; /* keep the compiler quiet */
+   (void) arg;                 /* keep the compiler quiet */
    ECPGfree_auto_mem();
 }
 
index 0296d925b9d0cbda835332916390a709d6507e06..60c9c50b22790ef45aaacab04cf6c84cab2410da 100644 (file)
@@ -164,7 +164,7 @@ ECPGprepare(int lineno, const char *connection_name, const bool questionmarks, c
    struct prepared_statement *this,
               *prev;
 
-   (void) questionmarks; /* quiet the compiler */
+   (void) questionmarks;       /* quiet the compiler */
    con = ecpg_get_connection(connection_name);
 
    if (!ecpg_init(con, connection_name, lineno))
@@ -305,7 +305,7 @@ ecpg_prepared(const char *name, struct connection * con)
 char *
 ECPGprepared_statement(const char *connection_name, const char *name, int lineno)
 {
-   (void)lineno; /* keep the compiler quiet */
+   (void) lineno;              /* keep the compiler quiet */
    return ecpg_prepared(name, ecpg_get_connection(connection_name));
 }
 
index f198035a9af1f7059b8f0485035b5b693988f85f..6f7314875ec26f40e1b9e37e210a451dba5c8743 100644 (file)
@@ -12,7 +12,7 @@
 #include "extern.h"
 
 int            ret_value = 0;
-bool           autocommit = false,
+bool       autocommit = false,
            auto_create_c = false,
            system_includes = false,
            force_indicator = true,
@@ -127,7 +127,7 @@ main(int argc, char *const argv[])
    int         fnr,
                c,
                out_option = 0;
-   bool            verbose = false,
+   bool        verbose = false,
                header_mode = false;
    struct _include_path *ip;
    const char *progname;
index f2072f85d9e7c859750d5fa0377f2d05237b704d..05b273cc24a7920756f0b8a2f3767b50ea2aeff1 100644 (file)
 
 /* variables */
 
-extern bool        autocommit,
+extern bool autocommit,
            auto_create_c,
            system_includes,
            force_indicator,
            questionmarks,
            regression_mode,
            auto_prepare;
-extern int     braces_open,
+extern int braces_open,
            ret_value,
            struct_level,
            ecpg_internal_var;
index 7d2ef51f17ae6c265ebe9fef5eee46a05adad3c5..45e39e08e301000fa6ea5b14cceedd8906bac77e 100644 (file)
@@ -246,7 +246,7 @@ pg_krb5_sendauth(PGconn *conn)
    }
 
    retval = krb5_sendauth(info.pg_krb5_context, &auth_context,
-                     (krb5_pointer) & conn->sock, (char *) conn->krbsrvname,
+                      (krb5_pointer) &conn->sock, (char *) conn->krbsrvname,
                           info.pg_krb5_client, server,
                           AP_OPTS_MUTUAL_REQUIRED,
                           NULL, 0,     /* no creds, use ccache instead */
@@ -892,14 +892,14 @@ pg_fe_sendauth(AuthRequest areq, PGconn *conn)
                pgunlock_thread();
            }
            break;
-#else /* defined(ENABLE_GSS) || defined(ENABLE_SSPI) */
+#else                          /* defined(ENABLE_GSS) || defined(ENABLE_SSPI) */
            /* No GSSAPI *or* SSPI support */
        case AUTH_REQ_GSS:
        case AUTH_REQ_GSS_CONT:
            printfPQExpBuffer(&conn->errorMessage,
                     libpq_gettext("GSSAPI authentication not supported\n"));
            return STATUS_ERROR;
-#endif /* defined(ENABLE_GSS) || defined(ENABLE_SSPI) */
+#endif   /* defined(ENABLE_GSS) || defined(ENABLE_SSPI) */
 
 #ifdef ENABLE_SSPI
        case AUTH_REQ_SSPI:
@@ -919,19 +919,20 @@ pg_fe_sendauth(AuthRequest areq, PGconn *conn)
            pgunlock_thread();
            break;
 #else
+
            /*
             * No SSPI support. However, if we have GSSAPI but not SSPI
             * support, AUTH_REQ_SSPI will have been handled in the codepath
-            * for AUTH_REQ_GSSAPI above, so don't duplicate the case label
-            * in that case.
+            * for AUTH_REQ_GSSAPI above, so don't duplicate the case label in
+            * that case.
             */
 #if !defined(ENABLE_GSS)
        case AUTH_REQ_SSPI:
            printfPQExpBuffer(&conn->errorMessage,
                       libpq_gettext("SSPI authentication not supported\n"));
            return STATUS_ERROR;
-#endif /* !define(ENABLE_GSSAPI) */
-#endif /* ENABLE_SSPI */
+#endif   /* !define(ENABLE_GSSAPI) */
+#endif   /* ENABLE_SSPI */
 
 
        case AUTH_REQ_CRYPT:
index aa24c37f9c4b7230f452fe8d6028a60de055dd31..729730aa8cc66810756fe7e8cdb567e058756202 100644 (file)
@@ -41,7 +41,7 @@
 #endif
 #define near
 #include <shlobj.h>
-#ifdef WIN32_ONLY_COMPILER /* mstcpip.h is missing on mingw */
+#ifdef WIN32_ONLY_COMPILER     /* mstcpip.h is missing on mingw */
 #include <mstcpip.h>
 #endif
 #else
@@ -1011,13 +1011,13 @@ connectFailureMessage(PGconn *conn, int errorno)
    else
 #endif   /* HAVE_UNIX_SOCKETS */
    {
-       char    host_addr[NI_MAXHOST];
-       bool    display_host_addr;
+       char        host_addr[NI_MAXHOST];
+       bool        display_host_addr;
        struct sockaddr_storage *addr = &conn->raddr.addr;
 
        /*
-        *  Optionally display the network address with the hostname.
-        *  This is useful to distinguish between IPv4 and IPv6 connections.
+        * Optionally display the network address with the hostname. This is
+        * useful to distinguish between IPv4 and IPv6 connections.
         */
        if (conn->pghostaddr != NULL)
            strlcpy(host_addr, conn->pghostaddr, NI_MAXHOST);
@@ -1033,7 +1033,7 @@ connectFailureMessage(PGconn *conn, int errorno)
        else if (addr->ss_family == AF_INET6)
        {
            if (inet_net_ntop(AF_INET6,
-                             &((struct sockaddr_in6 *) addr)->sin6_addr.s6_addr,
+                         &((struct sockaddr_in6 *) addr)->sin6_addr.s6_addr,
                              128,
                              host_addr, sizeof(host_addr)) == NULL)
                strcpy(host_addr, "???");
@@ -1043,25 +1043,25 @@ connectFailureMessage(PGconn *conn, int errorno)
            strcpy(host_addr, "???");
 
        /*
-        *  If the user did not supply an IP address using 'hostaddr', and
-        *  'host' was missing or does not match our lookup, display the
-        *  looked-up IP address.
+        * If the user did not supply an IP address using 'hostaddr', and
+        * 'host' was missing or does not match our lookup, display the
+        * looked-up IP address.
         */
        display_host_addr = (conn->pghostaddr == NULL) &&
-                           ((conn->pghost == NULL) ||
-                            (strcmp(conn->pghost, host_addr) != 0));
+           ((conn->pghost == NULL) ||
+            (strcmp(conn->pghost, host_addr) != 0));
 
        appendPQExpBuffer(&conn->errorMessage,
                          libpq_gettext("could not connect to server: %s\n"
-                    "\tIs the server running on host \"%s\"%s%s%s and accepting\n"
+              "\tIs the server running on host \"%s\"%s%s%s and accepting\n"
                                        "\tTCP/IP connections on port %s?\n"),
                          SOCK_STRERROR(errorno, sebuf, sizeof(sebuf)),
                          (conn->pghostaddr && conn->pghostaddr[0] != '\0')
                          ? conn->pghostaddr
                          : (conn->pghost && conn->pghost[0] != '\0')
-                            ? conn->pghost
-                            : DefaultHost,
-                         /* display the IP address only if not already output */
+                         ? conn->pghost
+                         : DefaultHost,
+       /* display the IP address only if not already output */
                          display_host_addr ? " (" : "",
                          display_host_addr ? host_addr : "",
                          display_host_addr ? ")" : "",
@@ -1121,10 +1121,10 @@ setKeepalivesIdle(PGconn *conn)
    if (setsockopt(conn->sock, IPPROTO_TCP, TCP_KEEPALIVE,
                   (char *) &idle, sizeof(idle)) < 0)
    {
-       char    sebuf[256];
+       char        sebuf[256];
 
        appendPQExpBuffer(&conn->errorMessage,
-                         libpq_gettext("setsockopt(TCP_KEEPALIVE) failed: %s\n"),
+                    libpq_gettext("setsockopt(TCP_KEEPALIVE) failed: %s\n"),
                          SOCK_STRERROR(SOCK_ERRNO, sebuf, sizeof(sebuf)));
        return 0;
    }
@@ -1196,8 +1196,7 @@ setKeepalivesCount(PGconn *conn)
 
    return 1;
 }
-
-#else /* Win32 */
+#else                          /* Win32 */
 #ifdef SIO_KEEPALIVE_VALS
 /*
  * Enable keepalives and set the keepalive values on Win32,
@@ -1206,20 +1205,20 @@ setKeepalivesCount(PGconn *conn)
 static int
 setKeepalivesWin32(PGconn *conn)
 {
-   struct tcp_keepalive    ka;
-   DWORD                   retsize;
-   int                     idle = 0;
-   int                     interval = 0;
+   struct tcp_keepalive ka;
+   DWORD       retsize;
+   int         idle = 0;
+   int         interval = 0;
 
    if (conn->keepalives_idle)
        idle = atoi(conn->keepalives_idle);
    if (idle <= 0)
-       idle = 2 * 60 * 60; /* 2 hours = default */
+       idle = 2 * 60 * 60;     /* 2 hours = default */
 
    if (conn->keepalives_interval)
        interval = atoi(conn->keepalives_interval);
    if (interval <= 0)
-       interval = 1; /* 1 second = default */
+       interval = 1;           /* 1 second = default */
 
    ka.onoff = 1;
    ka.keepalivetime = idle * 1000;
@@ -1237,14 +1236,14 @@ setKeepalivesWin32(PGconn *conn)
        != 0)
    {
        appendPQExpBuffer(&conn->errorMessage,
-                         libpq_gettext("WSAIoctl(SIO_KEEPALIVE_VALS) failed: %ui\n"),
+                libpq_gettext("WSAIoctl(SIO_KEEPALIVE_VALS) failed: %ui\n"),
                          WSAGetLastError());
        return 0;
    }
    return 1;
 }
-#endif /* SIO_KEEPALIVE_VALS */
-#endif /* WIN32 */
+#endif   /* SIO_KEEPALIVE_VALS */
+#endif   /* WIN32 */
 
 /* ----------
  * connectDBStart -
@@ -1661,12 +1660,12 @@ keep_going:                     /* We will come back to here until there is
                                 || !setKeepalivesInterval(conn)
                                 || !setKeepalivesCount(conn))
                            err = 1;
-#else /* WIN32 */
+#else                          /* WIN32 */
 #ifdef SIO_KEEPALIVE_VALS
                        else if (!setKeepalivesWin32(conn))
                            err = 1;
-#endif /* SIO_KEEPALIVE_VALS */
-#endif /* WIN32 */
+#endif   /* SIO_KEEPALIVE_VALS */
+#endif   /* WIN32 */
 
                        if (err)
                        {
@@ -1864,8 +1863,8 @@ keep_going:                       /* We will come back to here until there is
                    if (getpeereid(conn->sock, &uid, &gid) != 0)
                    {
                        appendPQExpBuffer(&conn->errorMessage,
-                                         libpq_gettext("could not get peer credentials: %s\n"),
-                                         pqStrerror(errno, sebuf, sizeof(sebuf)));
+                       libpq_gettext("could not get peer credentials: %s\n"),
+                                   pqStrerror(errno, sebuf, sizeof(sebuf)));
                        goto error_return;
                    }
 #elif defined(SO_PEERCRED)
@@ -1878,20 +1877,20 @@ keep_going:                     /* We will come back to here until there is
                        so_len != sizeof(peercred))
                    {
                        appendPQExpBuffer(&conn->errorMessage,
-                                         libpq_gettext("could not get peer credentials: %s\n"),
-                                         pqStrerror(errno, sebuf, sizeof(sebuf)));
+                       libpq_gettext("could not get peer credentials: %s\n"),
+                                   pqStrerror(errno, sebuf, sizeof(sebuf)));
                        goto error_return;
                    }
                    uid = peercred.uid;
 #elif defined(HAVE_GETPEERUCRED)
                    ucred_t    *ucred;
 
-                   ucred = NULL;           /* must be initialized to NULL */
+                   ucred = NULL;       /* must be initialized to NULL */
                    if (getpeerucred(conn->sock, &ucred) == -1)
                    {
                        appendPQExpBuffer(&conn->errorMessage,
-                                         libpq_gettext("could not get peer credentials: %s\n"),
-                                         pqStrerror(errno, sebuf, sizeof(sebuf)));
+                       libpq_gettext("could not get peer credentials: %s\n"),
+                                   pqStrerror(errno, sebuf, sizeof(sebuf)));
                        goto error_return;
                    }
 
@@ -1899,7 +1898,7 @@ keep_going:                       /* We will come back to here until there is
                    {
                        appendPQExpBuffer(&conn->errorMessage,
                                          libpq_gettext("could not get effective UID from peer credentials: %s\n"),
-                                         pqStrerror(errno, sebuf, sizeof(sebuf)));
+                                   pqStrerror(errno, sebuf, sizeof(sebuf)));
                        ucred_free(ucred);
                        goto error_return;
                    }
@@ -1925,7 +1924,7 @@ keep_going:                       /* We will come back to here until there is
                                          conn->requirepeer, pass->pw_name);
                        goto error_return;
                    }
-#else  /* can't support requirepeer */
+#else                          /* can't support requirepeer */
                    appendPQExpBuffer(&conn->errorMessage,
                                      libpq_gettext("requirepeer parameter is not supported on this platform\n"));
                    goto error_return;
@@ -2613,18 +2612,18 @@ internal_ping(PGconn *conn)
     * failure in sufficient detail to decide what to return.  We do not want
     * to report that the server is not up just because we didn't have a valid
     * password, for example.  In fact, any sort of authentication request
-    * implies the server is up.  (We need this check since the libpq side
-    * of things might have pulled the plug on the connection before getting
-    * an error as such from the postmaster.)
+    * implies the server is up.  (We need this check since the libpq side of
+    * things might have pulled the plug on the connection before getting an
+    * error as such from the postmaster.)
     */
    if (conn->auth_req_received)
        return PQPING_OK;
 
    /*
     * If we failed to get any ERROR response from the postmaster, report
-    * PQPING_NO_RESPONSE.  This result could be somewhat misleading for a
+    * PQPING_NO_RESPONSE.  This result could be somewhat misleading for a
     * pre-7.4 server, since it won't send back a SQLSTATE, but those are long
-    * out of support.  Another corner case where the server could return a
+    * out of support.  Another corner case where the server could return a
     * failure without a SQLSTATE is fork failure, but NO_RESPONSE isn't
     * totally unreasonable for that anyway.  We expect that every other
     * failure case in a modern server will produce a report with a SQLSTATE.
@@ -2638,8 +2637,8 @@ internal_ping(PGconn *conn)
        return PQPING_NO_RESPONSE;
 
    /*
-    * Report PQPING_REJECT if server says it's not accepting connections.
-    * (We distinguish this case mainly for the convenience of pg_ctl.)
+    * Report PQPING_REJECT if server says it's not accepting connections. (We
+    * distinguish this case mainly for the convenience of pg_ctl.)
     */
    if (strcmp(conn->last_sqlstate, ERRCODE_CANNOT_CONNECT_NOW) == 0)
        return PQPING_REJECT;
index 42da1a8f90547a38cb3a8af96453033dc8de694e..83c5ea363fc8da5d659bb45203063309297aca38 100644 (file)
@@ -1787,8 +1787,8 @@ PQexecStart(PGconn *conn)
        {
            /* We don't allow PQexec during COPY BOTH */
            printfPQExpBuffer(&conn->errorMessage,
-            libpq_gettext("PQexec not allowed during COPY BOTH\n"));
-           return false;           
+                    libpq_gettext("PQexec not allowed during COPY BOTH\n"));
+           return false;
        }
        /* check for loss of connection, too */
        if (conn->status == CONNECTION_BAD)
@@ -1813,8 +1813,8 @@ PQexecFinish(PGconn *conn)
     * than one --- but merge error messages if we get more than one error
     * result.
     *
-    * We have to stop if we see copy in/out/both, however. We will resume parsing
-    * after application performs the data transfer.
+    * We have to stop if we see copy in/out/both, however. We will resume
+    * parsing after application performs the data transfer.
     *
     * Also stop if the connection is lost (else we'll loop infinitely).
     */
@@ -3464,11 +3464,11 @@ PQunescapeBytea(const unsigned char *strtext, size_t *retbuflen)
                            (ISOCTDIGIT(strtext[i + 1])) &&
                            (ISOCTDIGIT(strtext[i + 2])))
                        {
-                           int byte;
+                           int         byte;
 
                            byte = OCTVAL(strtext[i++]);
-                           byte = (byte <<3) +OCTVAL(strtext[i++]);
-                           byte = (byte <<3) +OCTVAL(strtext[i++]);
+                           byte = (byte << 3) + OCTVAL(strtext[i++]);
+                           byte = (byte << 3) + OCTVAL(strtext[i++]);
                            buffer[j++] = byte;
                        }
                    }
index 05357de1c74f81d96e507e71a78274e9f4cc3ef7..77c4d5ac571bf60af22b70826825c736abfdcf11 100644 (file)
@@ -100,11 +100,11 @@ pqSetenvPoll(PGconn *conn)
    {
        switch (conn->setenv_state)
        {
-           /*
-            * The _CLIENT_ENCODING_SEND code is slightly different
-            * from _OPTION_SEND below (e.g., no getenv() call), which
-            * is why a different state is used.
-            */
+               /*
+                * The _CLIENT_ENCODING_SEND code is slightly different from
+                * _OPTION_SEND below (e.g., no getenv() call), which is why a
+                * different state is used.
+                */
            case SETENV_STATE_CLIENT_ENCODING_SEND:
                {
                    char        setQuery[100];  /* note length limit in
@@ -601,9 +601,10 @@ pqParseInput2(PGconn *conn)
                case 'H':       /* Start Copy Out */
                    conn->asyncStatus = PGASYNC_COPY_OUT;
                    break;
+
                    /*
-                    * Don't need to process CopyBothResponse here because
-                    * it never arrives from the server during protocol 2.0.
+                    * Don't need to process CopyBothResponse here because it
+                    * never arrives from the server during protocol 2.0.
                     */
                default:
                    printfPQExpBuffer(&conn->errorMessage,
index cf0b91a9bc1b2d5cbc84def4526e92958fe26a33..45a84d8e553dc5ffa7183241222950804cbfcc8f 100644 (file)
@@ -1400,8 +1400,8 @@ pqGetCopyData3(PGconn *conn, char **buffer, int async)
            /*
             * On end-of-copy, exit COPY_OUT or COPY_BOTH mode and let caller
             * read status with PQgetResult().  The normal case is that it's
-            * Copy Done, but we let parseInput read that.  If error, we expect
-            * the state was already changed.
+            * Copy Done, but we let parseInput read that.  If error, we
+            * expect the state was already changed.
             */
            if (msgLength == -1)
                conn->asyncStatus = PGASYNC_BUSY;
index 2b7b0341cd0bc807e44f762357884627e056f556..cd1292ccb610228805cc95d77b9336bbe7da5258 100644 (file)
@@ -589,8 +589,8 @@ static bool
 verify_peer_name_matches_certificate(PGconn *conn)
 {
    /*
-    * If told not to verify the peer name, don't do it. Return true indicating
-    * that the verification was successful.
+    * If told not to verify the peer name, don't do it. Return true
+    * indicating that the verification was successful.
     */
    if (strcmp(conn->sslmode, "verify-full") != 0)
        return true;
@@ -839,7 +839,7 @@ initialize_SSL(PGconn *conn)
        !(conn->sslrootcert && strlen(conn->sslrootcert) > 0) ||
        !(conn->sslcrl && strlen(conn->sslcrl) > 0))
        have_homedir = pqGetHomeDirectory(homedir, sizeof(homedir));
-   else                        /* won't need it */
+   else    /* won't need it */
        have_homedir = false;
 
    /* Read the client certificate file */
@@ -1135,8 +1135,8 @@ initialize_SSL(PGconn *conn)
                                                "Either provide the file or change sslmode to disable server certificate verification.\n"));
            else
                printfPQExpBuffer(&conn->errorMessage,
-                                 libpq_gettext("root certificate file \"%s\" does not exist\n"
-                                               "Either provide the file or change sslmode to disable server certificate verification.\n"), fnbuf);
+               libpq_gettext("root certificate file \"%s\" does not exist\n"
+                             "Either provide the file or change sslmode to disable server certificate verification.\n"), fnbuf);
            return -1;
        }
    }
index de13a03cf0634bfa03155bcbab1913fe81f94a5f..d7802753ef44066a1ee99138db56e8eb658bbaef 100644 (file)
@@ -414,7 +414,7 @@ extern int  PQisnonblocking(const PGconn *conn);
 extern int PQisthreadsafe(void);
 extern PGPing PQping(const char *conninfo);
 extern PGPing PQpingParams(const char **keywords,
-                 const char **values, int expand_dbname);
+            const char **values, int expand_dbname);
 
 /* Force the write buffer to be written (or at least try) */
 extern int PQflush(PGconn *conn);
index 25c779acd7ef2c0a29f8e55885f3f478dcaafe37..fbd94ebfb88b92db2daa91f2b22b3a9e457236ae 100644 (file)
@@ -295,7 +295,7 @@ struct pg_conn
    char       *pgtty;          /* tty on which the backend messages is
                                 * displayed (OBSOLETE, NOT USED) */
    char       *connect_timeout;    /* connection timeout (numeric string) */
-   char       *client_encoding_initial; /* encoding to use */
+   char       *client_encoding_initial;        /* encoding to use */
    char       *pgoptions;      /* options to start the backend with */
    char       *appname;        /* application name */
    char       *fbappname;      /* fallback application name */
@@ -337,7 +337,7 @@ struct pg_conn
    PGTransactionStatusType xactStatus; /* never changes to ACTIVE */
    PGQueryClass queryclass;
    char       *last_query;     /* last SQL command, or NULL if unknown */
-   char        last_sqlstate[6];   /* last reported SQLSTATE */
+   char        last_sqlstate[6];       /* last reported SQLSTATE */
    bool        options_valid;  /* true if OK to attempt connection */
    bool        nonblocking;    /* whether this connection is using nonblock
                                 * sending semantics */
@@ -353,7 +353,8 @@ struct pg_conn
    SockAddr    raddr;          /* Remote address */
    ProtocolVersion pversion;   /* FE/BE protocol version in use */
    int         sversion;       /* server version, e.g. 70401 for 7.4.1 */
-   bool        auth_req_received;  /* true if any type of auth req received */
+   bool        auth_req_received;      /* true if any type of auth req
+                                        * received */
    bool        password_needed;    /* true if server demanded a password */
    bool        dot_pgpass_used;    /* true if used .pgpass */
    bool        sigpipe_so;     /* have we masked SIGPIPE via SO_NOSIGPIPE? */
index 35bf72ca30ffd0388a3df8ffec61aa786dcc2c9e..ac9134272cc9b7da11842e9dbb2e08ac55fc4dbb 100644 (file)
@@ -1211,7 +1211,7 @@ plperl_sv_to_datum(SV *sv, FmgrInfo *finfo, Oid typid, Oid typioparam,
 
        ereport(ERROR,
                (errcode(ERRCODE_DATATYPE_MISMATCH),
-                errmsg("PL/Perl function must return reference to hash or array")));
+        errmsg("PL/Perl function must return reference to hash or array")));
        return (Datum) 0;       /* shut up compiler */
    }
    else
index 65b27a344f068804904e322fbd57ca60f16c0426..5eaec73d2b18fa5398e504c6da165d74d39ec906 100644 (file)
@@ -44,9 +44,9 @@
 
 /* supply HeUTF8 if it's missing - ppport.h doesn't supply it, unfortunately */
 #ifndef HeUTF8
-#define HeUTF8(he)             ((HeKLEN(he) == HEf_SVKEY) ?            \
-                                SvUTF8(HeKEY_sv(he)) :                 \
-                                (U32)HeKUTF8(he))
+#define HeUTF8(he)            ((HeKLEN(he) == HEf_SVKEY) ?            \
+                               SvUTF8(HeKEY_sv(he)) :                 \
+                               (U32)HeKUTF8(he))
 #endif
 
 /* declare routines from plperl.c for access by .xs files */
@@ -59,7 +59,7 @@ HV           *plperl_spi_exec_prepared(char *, HV *, int, SV **);
 SV        *plperl_spi_query_prepared(char *, int, SV **);
 void       plperl_spi_freeplan(char *);
 void       plperl_spi_cursor_close(char *);
-char      *plperl_sv_to_literal(SV *, char *);
+char      *plperl_sv_to_literal(SV *, char *);
 
 
 
index 4480ce8f5eb0c93bce3133420a270b1d19f2e576..81c177b164b8250db238380a8f30f6f19712e9a3 100644 (file)
@@ -7,7 +7,8 @@
 static inline char *
 utf_u2e(const char *utf8_str, size_t len)
 {
-   char *ret = (char*)pg_do_encoding_conversion((unsigned char*)utf8_str, len, PG_UTF8, GetDatabaseEncoding());
+   char       *ret = (char *) pg_do_encoding_conversion((unsigned char *) utf8_str, len, PG_UTF8, GetDatabaseEncoding());
+
    if (ret == utf8_str)
        ret = pstrdup(ret);
    return ret;
@@ -19,7 +20,8 @@ utf_u2e(const char *utf8_str, size_t len)
 static inline char *
 utf_e2u(const char *str)
 {
-   char *ret = (char*)pg_do_encoding_conversion((unsigned char*)str, strlen(str), GetDatabaseEncoding(), PG_UTF8);
+   char       *ret = (char *) pg_do_encoding_conversion((unsigned char *) str, strlen(str), GetDatabaseEncoding(), PG_UTF8);
+
    if (ret == str)
        ret = pstrdup(ret);
    return ret;
@@ -32,8 +34,8 @@ utf_e2u(const char *str)
 static inline char *
 sv2cstr(SV *sv)
 {
-   char *val;
-   STRLEN len;
+   char       *val;
+   STRLEN      len;
 
    /*
     * get a utf8 encoded char * out of perl. *note* it may not be valid utf8!
@@ -55,8 +57,8 @@ sv2cstr(SV *sv)
 static inline SV *
 cstr2sv(const char *str)
 {
-   SV *sv;
-   char *utf8_str = utf_e2u(str);
+   SV         *sv;
+   char       *utf8_str = utf_e2u(str);
 
    sv = newSVpv(utf8_str, 0);
    SvUTF8_on(sv);
index 8b963bf818d65d8157b1b039e9478a79cc6dc27c..9f919b88c20546ed87600bc77b813c25f5724e94 100644 (file)
@@ -414,7 +414,7 @@ do_compile(FunctionCallInfo fcinfo,
                /* Create datatype info */
                argdtype = plpgsql_build_datatype(argtypeid,
                                                  -1,
-                                                 function->fn_input_collation);
+                                              function->fn_input_collation);
 
                /* Disallow pseudotype argument */
                /* (note we already replaced polymorphic types) */
@@ -561,7 +561,7 @@ do_compile(FunctionCallInfo fcinfo,
                    (void) plpgsql_build_variable("$0", 0,
                                                  build_datatype(typeTup,
                                                                 -1,
-                                                                function->fn_input_collation),
+                                              function->fn_input_collation),
                                                  true);
                }
            }
@@ -602,7 +602,7 @@ do_compile(FunctionCallInfo fcinfo,
            var = plpgsql_build_variable("tg_when", 0,
                                         plpgsql_build_datatype(TEXTOID,
                                                                -1,
-                                                               function->fn_input_collation),
+                                              function->fn_input_collation),
                                         true);
            function->tg_when_varno = var->dno;
 
@@ -610,7 +610,7 @@ do_compile(FunctionCallInfo fcinfo,
            var = plpgsql_build_variable("tg_level", 0,
                                         plpgsql_build_datatype(TEXTOID,
                                                                -1,
-                                                               function->fn_input_collation),
+                                              function->fn_input_collation),
                                         true);
            function->tg_level_varno = var->dno;
 
@@ -618,7 +618,7 @@ do_compile(FunctionCallInfo fcinfo,
            var = plpgsql_build_variable("tg_op", 0,
                                         plpgsql_build_datatype(TEXTOID,
                                                                -1,
-                                                               function->fn_input_collation),
+                                              function->fn_input_collation),
                                         true);
            function->tg_op_varno = var->dno;
 
@@ -666,7 +666,7 @@ do_compile(FunctionCallInfo fcinfo,
            var = plpgsql_build_variable("tg_argv", 0,
                                         plpgsql_build_datatype(TEXTARRAYOID,
                                                                -1,
-                                                               function->fn_input_collation),
+                                              function->fn_input_collation),
                                         true);
            function->tg_argv_varno = var->dno;
 
@@ -998,13 +998,13 @@ plpgsql_post_column_ref(ParseState *pstate, ColumnRef *cref, Node *var)
 
    /*
     * If we find a record/row variable but can't match a field name, throw
-    * error if there was no core resolution for the ColumnRef either.  In
+    * error if there was no core resolution for the ColumnRef either.  In
     * that situation, the reference is inevitably going to fail, and
-    * complaining about the record/row variable is likely to be more
-    * on-point than the core parser's error message.  (It's too bad we
-    * don't have access to transformColumnRef's internal crerr state here,
-    * as in case of a conflict with a table name this could still be less
-    * than the most helpful error message possible.)
+    * complaining about the record/row variable is likely to be more on-point
+    * than the core parser's error message.  (It's too bad we don't have
+    * access to transformColumnRef's internal crerr state here, as in case of
+    * a conflict with a table name this could still be less than the most
+    * helpful error message possible.)
     */
    myvar = resolve_column_ref(pstate, expr, cref, (var == NULL));
 
@@ -1970,7 +1970,7 @@ build_row_from_class(Oid classOid)
            var = plpgsql_build_variable(refname, 0,
                                 plpgsql_build_datatype(attrStruct->atttypid,
                                                        attrStruct->atttypmod,
-                                                       attrStruct->attcollation),
+                                                  attrStruct->attcollation),
                                         false);
 
            /* Add the variable to the row */
index f793991209d6dac6061a8b6f7a43948eae44ae11..5fccf096de4f7d2ed98b2ab4d7049c237130f9ec 100644 (file)
@@ -108,7 +108,7 @@ static int exec_stmt_fors(PLpgSQL_execstate *estate,
 static int exec_stmt_forc(PLpgSQL_execstate *estate,
               PLpgSQL_stmt_forc *stmt);
 static int exec_stmt_foreach_a(PLpgSQL_execstate *estate,
-                   PLpgSQL_stmt_foreach_a *stmt);
+                   PLpgSQL_stmt_foreach_a *stmt);
 static int exec_stmt_open(PLpgSQL_execstate *estate,
               PLpgSQL_stmt_open *stmt);
 static int exec_stmt_fetch(PLpgSQL_execstate *estate,
@@ -1016,7 +1016,7 @@ exec_stmt_block(PLpgSQL_execstate *estate, PLpgSQL_stmt_block *block)
        MemoryContext oldcontext = CurrentMemoryContext;
        ResourceOwner oldowner = CurrentResourceOwner;
        ExprContext *old_eval_econtext = estate->eval_econtext;
-       ErrorData *save_cur_error = estate->cur_error;
+       ErrorData  *save_cur_error = estate->cur_error;
 
        estate->err_text = gettext_noop("during statement block entry");
 
@@ -1518,7 +1518,7 @@ exec_stmt_case(PLpgSQL_execstate *estate, PLpgSQL_stmt_case *stmt)
        if (t_var->datatype->typoid != t_oid)
            t_var->datatype = plpgsql_build_datatype(t_oid,
                                                     -1,
-                                                    estate->func->fn_input_collation);
+                                          estate->func->fn_input_collation);
 
        /* now we can assign to the variable */
        exec_assign_value(estate,
@@ -2046,16 +2046,16 @@ exec_stmt_forc(PLpgSQL_execstate *estate, PLpgSQL_stmt_forc *stmt)
 static int
 exec_stmt_foreach_a(PLpgSQL_execstate *estate, PLpgSQL_stmt_foreach_a *stmt)
 {
-   ArrayType          *arr;
-   Oid                 arrtype;
-   PLpgSQL_datum      *loop_var;
-   Oid                 loop_var_elem_type;
-   bool                found = false;
-   int                 rc = PLPGSQL_RC_OK;
-   ArrayIterator       array_iterator;
-   Oid                 iterator_result_type;
-   Datum               value;
-   bool                isnull;
+   ArrayType  *arr;
+   Oid         arrtype;
+   PLpgSQL_datum *loop_var;
+   Oid         loop_var_elem_type;
+   bool        found = false;
+   int         rc = PLPGSQL_RC_OK;
+   ArrayIterator array_iterator;
+   Oid         iterator_result_type;
+   Datum       value;
+   bool        isnull;
 
    /* get the value of the array expression */
    value = exec_eval_expr(estate, stmt->expr, &isnull, &arrtype);
@@ -2085,8 +2085,8 @@ exec_stmt_foreach_a(PLpgSQL_execstate *estate, PLpgSQL_stmt_foreach_a *stmt)
    if (stmt->slice < 0 || stmt->slice > ARR_NDIM(arr))
        ereport(ERROR,
                (errcode(ERRCODE_ARRAY_SUBSCRIPT_ERROR),
-                errmsg("slice dimension (%d) is out of the valid range 0..%d",
-                       stmt->slice, ARR_NDIM(arr))));
+              errmsg("slice dimension (%d) is out of the valid range 0..%d",
+                     stmt->slice, ARR_NDIM(arr))));
 
    /* Set up the loop variable and see if it is of an array type */
    loop_var = estate->datums[stmt->varno];
@@ -2104,19 +2104,19 @@ exec_stmt_foreach_a(PLpgSQL_execstate *estate, PLpgSQL_stmt_foreach_a *stmt)
                                                                  loop_var));
 
    /*
-    * Sanity-check the loop variable type.  We don't try very hard here,
-    * and should not be too picky since it's possible that exec_assign_value
-    * can coerce values of different types.  But it seems worthwhile to
-    * complain if the array-ness of the loop variable is not right.
+    * Sanity-check the loop variable type.  We don't try very hard here, and
+    * should not be too picky since it's possible that exec_assign_value can
+    * coerce values of different types.  But it seems worthwhile to complain
+    * if the array-ness of the loop variable is not right.
     */
    if (stmt->slice > 0 && loop_var_elem_type == InvalidOid)
        ereport(ERROR,
                (errcode(ERRCODE_DATATYPE_MISMATCH),
-                errmsg("FOREACH ... SLICE loop variable must be of an array type")));
+       errmsg("FOREACH ... SLICE loop variable must be of an array type")));
    if (stmt->slice == 0 && loop_var_elem_type != InvalidOid)
        ereport(ERROR,
                (errcode(ERRCODE_DATATYPE_MISMATCH),
-                errmsg("FOREACH loop variable must not be of an array type")));
+             errmsg("FOREACH loop variable must not be of an array type")));
 
    /* Create an iterator to step through the array */
    array_iterator = array_create_iterator(arr, stmt->slice);
@@ -3949,9 +3949,9 @@ exec_assign_value(PLpgSQL_execstate *estate,
                /*
                 * We need to do subscript evaluation, which might require
                 * evaluating general expressions; and the caller might have
-                * done that too in order to prepare the input Datum.  We
-                * have to save and restore the caller's SPI_execute result,
-                * if any.
+                * done that too in order to prepare the input Datum.  We have
+                * to save and restore the caller's SPI_execute result, if
+                * any.
                 */
                save_eval_tuptable = estate->eval_tuptable;
                estate->eval_tuptable = NULL;
@@ -4017,11 +4017,11 @@ exec_assign_value(PLpgSQL_execstate *estate,
                                 errmsg("array subscript in assignment must not be null")));
 
                    /*
-                    * Clean up in case the subscript expression wasn't simple.
-                    * We can't do exec_eval_cleanup, but we can do this much
-                    * (which is safe because the integer subscript value is
-                    * surely pass-by-value), and we must do it in case the
-                    * next subscript expression isn't simple either.
+                    * Clean up in case the subscript expression wasn't
+                    * simple. We can't do exec_eval_cleanup, but we can do
+                    * this much (which is safe because the integer subscript
+                    * value is surely pass-by-value), and we must do it in
+                    * case the next subscript expression isn't simple either.
                     */
                    if (estate->eval_tuptable != NULL)
                        SPI_freetuptable(estate->eval_tuptable);
@@ -4355,7 +4355,7 @@ exec_get_datum_collation(PLpgSQL_execstate *estate,
                /* XXX there's no SPI_getcollid, as yet */
                if (fno > 0)
                    collid = rec->tupdesc->attrs[fno - 1]->attcollation;
-               else            /* no system column types have collation */
+               else    /* no system column types have collation */
                    collid = InvalidOid;
                break;
            }
@@ -4726,7 +4726,7 @@ loop_exit:
  * Because we only store one execution tree for a simple expression, we
  * can't handle recursion cases.  So, if we see the tree is already busy
  * with an evaluation in the current xact, we just return FALSE and let the
- * caller run the expression the hard way.  (Other alternatives such as
+ * caller run the expression the hard way. (Other alternatives such as
  * creating a new tree for a recursive call either introduce memory leaks,
  * or add enough bookkeeping to be doubtful wins anyway.)  Another case that
  * is covered by the expr_simple_in_use test is where a previous execution
@@ -4907,7 +4907,7 @@ setup_param_list(PLpgSQL_execstate *estate, PLpgSQL_expr *expr)
        /* sizeof(ParamListInfoData) includes the first array element */
        paramLI = (ParamListInfo)
            palloc0(sizeof(ParamListInfoData) +
-                   (estate->ndatums - 1) *sizeof(ParamExternData));
+                   (estate->ndatums - 1) * sizeof(ParamExternData));
        paramLI->paramFetch = plpgsql_param_fetch;
        paramLI->paramFetchArg = (void *) estate;
        paramLI->parserSetup = (ParserSetupHook) plpgsql_parser_setup;
index 0429f68d4c56c089cc4019149a3d28f5b07f4229..e50d7eb45fedec49a0f675fcd19359100fcc314b 100644 (file)
@@ -870,7 +870,7 @@ extern PLpgSQL_type *plpgsql_parse_cwordtype(List *idents);
 extern PLpgSQL_type *plpgsql_parse_wordrowtype(char *ident);
 extern PLpgSQL_type *plpgsql_parse_cwordrowtype(List *idents);
 extern PLpgSQL_type *plpgsql_build_datatype(Oid typeOid, int32 typmod,
-                                           Oid collation);
+                      Oid collation);
 extern PLpgSQL_variable *plpgsql_build_variable(const char *refname, int lineno,
                       PLpgSQL_type *dtype,
                       bool add2namespace);
@@ -906,7 +906,7 @@ extern void plpgsql_subxact_cb(SubXactEvent event, SubTransactionId mySubid,
 extern Oid exec_get_datum_type(PLpgSQL_execstate *estate,
                    PLpgSQL_datum *datum);
 extern Oid exec_get_datum_collation(PLpgSQL_execstate *estate,
-                   PLpgSQL_datum *datum);
+                        PLpgSQL_datum *datum);
 
 /* ----------
  * Functions for namespace handling in pl_funcs.c
index 47d898a9765401fe0ccf6adf563c5f9166df7ecf..5e600daa96ae2159512b366b41197c31383ee7f8 100644 (file)
@@ -159,7 +159,7 @@ typedef union PLyTypeInput
 
 struct PLyObToDatum;
 typedef Datum (*PLyObToDatumFunc) (struct PLyObToDatum *, int32 typmod,
-                                  PyObject *);
+                                              PyObject *);
 
 typedef struct PLyObToDatum
 {
@@ -288,8 +288,8 @@ static HTAB *PLy_spi_exceptions;
 
 typedef struct PLyExceptionEntry
 {
-   int         sqlstate;   /* hash key, must be first */
-   PyObject   *exc;        /* corresponding exception */
+   int         sqlstate;       /* hash key, must be first */
+   PyObject   *exc;            /* corresponding exception */
 } PLyExceptionEntry;
 
 
@@ -315,7 +315,7 @@ PG_FUNCTION_INFO_V1(plpython_inline_handler);
 /* most of the remaining of the declarations, all static */
 
 /*
- * These should only be called once from _PG_init.  Initialize the
+ * These should only be called once from _PG_init. Initialize the
  * Python interpreter and global data.
  */
 static void PLy_init_interp(void);
@@ -374,7 +374,7 @@ static PyObject *PLy_procedure_call(PLyProcedure *, char *, PyObject *);
 static PLyProcedure *PLy_procedure_get(Oid fn_oid, bool is_trigger);
 
 static PLyProcedure *PLy_procedure_create(HeapTuple procTup,
-                                         Oid fn_oid, bool is_trigger);
+                    Oid fn_oid, bool is_trigger);
 
 static void PLy_procedure_compile(PLyProcedure *, const char *);
 static char *PLy_procedure_munge_source(const char *, const char *);
@@ -660,17 +660,16 @@ PLy_trigger_handler(FunctionCallInfo fcinfo, PLyProcedure *proc)
    HeapTuple   rv = NULL;
    PyObject   *volatile plargs = NULL;
    PyObject   *volatile plrv = NULL;
-   TriggerData *tdata;
+   TriggerData *tdata;
 
    Assert(CALLED_AS_TRIGGER(fcinfo));
 
    /*
-    * Input/output conversion for trigger tuples.  Use the result
-    * TypeInfo variable to store the tuple conversion info.  We do
-    * this over again on each call to cover the possibility that the
-    * relation's tupdesc changed since the trigger was last called.
-    * PLy_input_tuple_funcs and PLy_output_tuple_funcs are
-    * responsible for not doing repetitive work.
+    * Input/output conversion for trigger tuples.  Use the result TypeInfo
+    * variable to store the tuple conversion info.  We do this over again on
+    * each call to cover the possibility that the relation's tupdesc changed
+    * since the trigger was last called. PLy_input_tuple_funcs and
+    * PLy_output_tuple_funcs are responsible for not doing repetitive work.
     */
    tdata = (TriggerData *) fcinfo->context;
 
@@ -1086,8 +1085,8 @@ PLy_function_handler(FunctionCallInfo fcinfo, PLyProcedure *proc)
        if (!proc->is_setof || proc->setof == NULL)
        {
            /*
-            * Simple type returning function or first time for SETOF function:
-            * actually execute the function.
+            * Simple type returning function or first time for SETOF
+            * function: actually execute the function.
             */
            plargs = PLy_function_build_args(fcinfo, proc);
            plrv = PLy_procedure_call(proc, "args", plargs);
@@ -1304,26 +1303,26 @@ static PyObject *
 PLy_procedure_call(PLyProcedure *proc, char *kargs, PyObject *vargs)
 {
    PyObject   *rv;
-   int         volatile save_subxact_level = list_length(explicit_subtransactions);
+   int volatile save_subxact_level = list_length(explicit_subtransactions);
 
    PyDict_SetItemString(proc->globals, kargs, vargs);
 
    PG_TRY();
    {
 #if PY_VERSION_HEX >= 0x03020000
-         rv = PyEval_EvalCode(proc->code,
-                              proc->globals, proc->globals);
+       rv = PyEval_EvalCode(proc->code,
+                            proc->globals, proc->globals);
 #else
-         rv = PyEval_EvalCode((PyCodeObject *) proc->code,
-                              proc->globals, proc->globals);
+       rv = PyEval_EvalCode((PyCodeObject *) proc->code,
+                            proc->globals, proc->globals);
 #endif
 
-         /*
-          * Since plpy will only let you close subtransactions that
-          * you started, you cannot *unnest* subtransactions, only
-          * *nest* them without closing.
-          */
-         Assert(list_length(explicit_subtransactions) >= save_subxact_level);
+       /*
+        * Since plpy will only let you close subtransactions that you
+        * started, you cannot *unnest* subtransactions, only *nest* them
+        * without closing.
+        */
+       Assert(list_length(explicit_subtransactions) >= save_subxact_level);
    }
    PG_CATCH();
    {
@@ -1470,8 +1469,8 @@ PLy_procedure_valid(PLyProcedure *proc, HeapTuple procTup)
    /* If there are composite input arguments, they might have changed */
    for (i = 0; i < proc->nargs; i++)
    {
-       Oid             relid;
-       HeapTuple       relTup;
+       Oid         relid;
+       HeapTuple   relTup;
 
        /* Short-circuit on first changed argument */
        if (!valid)
@@ -1516,7 +1515,7 @@ static PLyProcedure *
 PLy_procedure_get(Oid fn_oid, bool is_trigger)
 {
    HeapTuple   procTup;
-   PLyProcedureEntry * volatile entry;
+   PLyProcedureEntry *volatile entry;
    bool        found;
 
    procTup = SearchSysCache1(PROCOID, ObjectIdGetDatum(fn_oid));
@@ -1636,8 +1635,8 @@ PLy_procedure_create(HeapTuple procTup, Oid fn_oid, bool is_trigger)
                         procStruct->prorettype != RECORDOID)
                    ereport(ERROR,
                            (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                            errmsg("PL/Python functions cannot return type %s",
-                                   format_type_be(procStruct->prorettype))));
+                         errmsg("PL/Python functions cannot return type %s",
+                                format_type_be(procStruct->prorettype))));
            }
 
            if (rvTypeStruct->typtype == TYPTYPE_COMPOSITE ||
@@ -1986,8 +1985,11 @@ PLy_output_record_funcs(PLyTypeInfo *arg, TupleDesc desc)
    arg->out.d.typmod = desc->tdtypmod;
    /* proceed with normal I/O function caching */
    PLy_output_tuple_funcs(arg, desc);
-   /* it should change is_rowtype to 1, so we won't go through this again
-    * unless the the output record description changes */
+
+   /*
+    * it should change is_rowtype to 1, so we won't go through this again
+    * unless the the output record description changes
+    */
    Assert(arg->is_rowtype == 1);
 }
 
@@ -2373,9 +2375,9 @@ PLyDict_FromTuple(PLyTypeInfo *info, HeapTuple tuple, TupleDesc desc)
 }
 
 /*
- *  Convert a Python object to a PostgreSQL tuple, using all supported
- *  conversion methods: tuple as a sequence, as a mapping or as an object that
- *  has __getattr__ support.
+ * Convert a Python object to a PostgreSQL tuple, using all supported
+ * conversion methods: tuple as a sequence, as a mapping or as an object that
+ * has __getattr__ support.
  */
 static HeapTuple
 PLyObject_ToTuple(PLyTypeInfo *info, TupleDesc desc, PyObject *plrv)
@@ -2469,7 +2471,7 @@ PLyObject_ToComposite(PLyObToDatum *arg, int32 typmod, PyObject *plrv)
 {
    HeapTuple   tuple = NULL;
    Datum       rv;
-   PLyTypeInfo info;
+   PLyTypeInfo info;
    TupleDesc   desc;
 
    if (typmod != -1)
@@ -2977,7 +2979,7 @@ static PyTypeObject PLy_SubtransactionType = {
    /*
     * methods
     */
-   PLy_subtransaction_dealloc, /* tp_dealloc */
+   PLy_subtransaction_dealloc, /* tp_dealloc */
    0,                          /* tp_print */
    0,                          /* tp_getattr */
    0,                          /* tp_setattr */
@@ -3000,7 +3002,7 @@ static PyTypeObject PLy_SubtransactionType = {
    0,                          /* tp_weaklistoffset */
    0,                          /* tp_iter */
    0,                          /* tp_iternext */
-   PLy_subtransaction_methods, /* tp_tpmethods */
+   PLy_subtransaction_methods, /* tp_tpmethods */
 };
 
 static PyMethodDef PLy_methods[] = {
@@ -3264,12 +3266,11 @@ PLy_spi_prepare(PyObject *self, PyObject *args)
 
    PG_TRY();
    {
-       int i;
+       int         i;
 
        /*
-        * the other loop might throw an exception, if PLyTypeInfo
-        * member isn't properly initialized the Py_DECREF(plan) will
-        * go boom
+        * the other loop might throw an exception, if PLyTypeInfo member
+        * isn't properly initialized the Py_DECREF(plan) will go boom
         */
        for (i = 0; i < nargs; i++)
        {
@@ -3311,9 +3312,10 @@ PLy_spi_prepare(PyObject *self, PyObject *args)
                elog(ERROR, "cache lookup failed for type %u", typeId);
 
            Py_DECREF(optr);
+
            /*
-            * set optr to NULL, so we won't try to unref it again in
-            * case of an error
+            * set optr to NULL, so we won't try to unref it again in case of
+            * an error
             */
            optr = NULL;
 
@@ -3324,7 +3326,7 @@ PLy_spi_prepare(PyObject *self, PyObject *args)
            else
                ereport(ERROR,
                        (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                        errmsg("plpy.prepare does not support composite types")));
+                  errmsg("plpy.prepare does not support composite types")));
            ReleaseSysCache(typeTup);
        }
 
@@ -3355,9 +3357,9 @@ PLy_spi_prepare(PyObject *self, PyObject *args)
    }
    PG_CATCH();
    {
-       ErrorData   *edata;
+       ErrorData  *edata;
        PLyExceptionEntry *entry;
-       PyObject    *exc;
+       PyObject   *exc;
 
        /* Save error info */
        MemoryContextSwitchTo(oldcontext);
@@ -3372,9 +3374,9 @@ PLy_spi_prepare(PyObject *self, PyObject *args)
        CurrentResourceOwner = oldowner;
 
        /*
-        * If AtEOSubXact_SPI() popped any SPI context of the subxact, it
-        * will have left us in a disconnected state.  We need this hack to
-        * return to connected state.
+        * If AtEOSubXact_SPI() popped any SPI context of the subxact, it will
+        * have left us in a disconnected state.  We need this hack to return
+        * to connected state.
         */
        SPI_restore_connection();
 
@@ -3470,7 +3472,7 @@ PLy_spi_execute_plan(PyObject *ob, PyObject *list, long limit)
 
    PG_TRY();
    {
-       char  volatile nulls;
+       char       *volatile nulls;
        volatile int j;
 
        if (nargs > 0)
@@ -3535,9 +3537,9 @@ PLy_spi_execute_plan(PyObject *ob, PyObject *list, long limit)
    PG_CATCH();
    {
        int         k;
-       ErrorData   *edata;
+       ErrorData  *edata;
        PLyExceptionEntry *entry;
-       PyObject    *exc;
+       PyObject   *exc;
 
        /* Save error info */
        MemoryContextSwitchTo(oldcontext);
@@ -3563,9 +3565,9 @@ PLy_spi_execute_plan(PyObject *ob, PyObject *list, long limit)
        CurrentResourceOwner = oldowner;
 
        /*
-        * If AtEOSubXact_SPI() popped any SPI context of the subxact, it
-        * will have left us in a disconnected state.  We need this hack to
-        * return to connected state.
+        * If AtEOSubXact_SPI() popped any SPI context of the subxact, it will
+        * have left us in a disconnected state.  We need this hack to return
+        * to connected state.
         */
        SPI_restore_connection();
 
@@ -3636,9 +3638,9 @@ PLy_spi_execute_query(char *query, long limit)
    }
    PG_CATCH();
    {
-       ErrorData               *edata;
-       PLyExceptionEntry       *entry;
-       PyObject                *exc;
+       ErrorData  *edata;
+       PLyExceptionEntry *entry;
+       PyObject   *exc;
 
        /* Save error info */
        MemoryContextSwitchTo(oldcontext);
@@ -3651,9 +3653,9 @@ PLy_spi_execute_query(char *query, long limit)
        CurrentResourceOwner = oldowner;
 
        /*
-        * If AtEOSubXact_SPI() popped any SPI context of the subxact, it
-        * will have left us in a disconnected state.  We need this hack to
-        * return to connected state.
+        * If AtEOSubXact_SPI() popped any SPI context of the subxact, it will
+        * have left us in a disconnected state.  We need this hack to return
+        * to connected state.
         */
        SPI_restore_connection();
 
@@ -3877,8 +3879,8 @@ PLy_subtransaction_exit(PyObject *self, PyObject *args)
    PLy_free(subxactdata);
 
    /*
-    * AtEOSubXact_SPI() should not have popped any SPI context, but
-    * just in case it did, make sure we remain connected.
+    * AtEOSubXact_SPI() should not have popped any SPI context, but just in
+    * case it did, make sure we remain connected.
     */
    SPI_restore_connection();
 
@@ -3937,11 +3939,11 @@ PLy_add_exceptions(PyObject *plpy)
    if (PyModule_AddObject(plpy, "spiexceptions", excmod) < 0)
        PLy_elog(ERROR, "failed to add the spiexceptions module");
 
-/* 
+/*
  * XXX it appears that in some circumstances the reference count of the
  * spiexceptions module drops to zero causing a Python assert failure when
  * the garbage collector visits the module. This has been observed on the
- * buildfarm. To fix this, add an additional ref for the module here. 
+ * buildfarm. To fix this, add an additional ref for the module here.
  *
  * This shouldn't cause a memory leak - we don't want this garbage collected,
  * and this function shouldn't be called more than once per backend.
@@ -4329,9 +4331,9 @@ PLy_exception_set_plural(PyObject *exc,
 static void
 PLy_spi_exception_set(PyObject *excclass, ErrorData *edata)
 {
-   PyObject    *args = NULL;
-   PyObject    *spierror = NULL;
-   PyObject    *spidata = NULL;
+   PyObject   *args = NULL;
+   PyObject   *spierror = NULL;
+   PyObject   *spidata = NULL;
 
    args = Py_BuildValue("(s)", edata->message);
    if (!args)
@@ -4378,11 +4380,13 @@ PLy_elog(int elevel, const char *fmt,...)
    char       *tbmsg;
    int         tb_depth;
    StringInfoData emsg;
-   PyObject    *exc, *val, *tb;
-   const char  *primary = NULL;
-   char        *detail = NULL;
-   char        *hint = NULL;
-   char        *query = NULL;
+   PyObject   *exc,
+              *val,
+              *tb;
+   const char *primary = NULL;
+   char       *detail = NULL;
+   char       *hint = NULL;
+   char       *query = NULL;
    int         position = 0;
 
    PyErr_Fetch(&exc, &val, &tb);
@@ -4463,7 +4467,7 @@ PLy_elog(int elevel, const char *fmt,...)
 static void
 PLy_get_spi_error_data(PyObject *exc, char **detail, char **hint, char **query, int *position)
 {
-   PyObject    *spidata = NULL;
+   PyObject   *spidata = NULL;
 
    spidata = PyObject_GetAttrString(exc, "spidata");
    if (!spidata)
@@ -4484,9 +4488,9 @@ cleanup:
 static char *
 get_source_line(const char *src, int lineno)
 {
-   const char  *s       = NULL;
-   const char  *next    = src;
-   int          current = 0;
+   const char *s = NULL;
+   const char *next = src;
+   int         current = 0;
 
    while (current < lineno)
    {
@@ -4597,11 +4601,11 @@ PLy_traceback(char **xmsg, char **tbmsg, int *tb_depth)
    appendStringInfoString(&tbstr, "Traceback (most recent call last):");
    while (tb != NULL && tb != Py_None)
    {
-       PyObject    *volatile tb_prev = NULL;
-       PyObject    *volatile frame = NULL;
-       PyObject    *volatile code = NULL;
-       PyObject    *volatile name = NULL;
-       PyObject    *volatile lineno = NULL;
+       PyObject   *volatile tb_prev = NULL;
+       PyObject   *volatile frame = NULL;
+       PyObject   *volatile code = NULL;
+       PyObject   *volatile name = NULL;
+       PyObject   *volatile lineno = NULL;
 
        PG_TRY();
        {
@@ -4634,15 +4638,14 @@ PLy_traceback(char **xmsg, char **tbmsg, int *tb_depth)
        /* The first frame always points at <module>, skip it. */
        if (*tb_depth > 0)
        {
-           char    *proname;
-           char    *fname;
-           char    *line;
-           long    plain_lineno;
+           char       *proname;
+           char       *fname;
+           char       *line;
+           long        plain_lineno;
 
            /*
-            * The second frame points at the internal function, but
-            * to mimick Python error reporting we want to say
-            * <module>.
+            * The second frame points at the internal function, but to mimick
+            * Python error reporting we want to say <module>.
             */
            if (*tb_depth == 1)
                fname = "<module>";
@@ -4654,22 +4657,22 @@ PLy_traceback(char **xmsg, char **tbmsg, int *tb_depth)
 
            if (proname == NULL)
                appendStringInfo(
-                   &tbstr, "\n  PL/Python anonymous code block, line %ld, in %s",
-                   plain_lineno - 1, fname);
+               &tbstr, "\n  PL/Python anonymous code block, line %ld, in %s",
+                                plain_lineno - 1, fname);
            else
                appendStringInfo(
                    &tbstr, "\n  PL/Python function \"%s\", line %ld, in %s",
-                   proname, plain_lineno - 1, fname);
+                                proname, plain_lineno - 1, fname);
 
            if (PLy_curr_procedure)
            {
                /*
-                * If we know the current procedure, append the exact
-                * line from the source, again mimicking Python's
-                * traceback.py module behavior.  We could store the
-                * already line-split source to avoid splitting it
-                * every time, but producing a traceback is not the
-                * most important scenario to optimize for.
+                * If we know the current procedure, append the exact line
+                * from the source, again mimicking Python's traceback.py
+                * module behavior.  We could store the already line-split
+                * source to avoid splitting it every time, but producing a
+                * traceback is not the most important scenario to optimize
+                * for.
                 */
                line = get_source_line(PLy_curr_procedure->src, plain_lineno);
                if (line)
@@ -4813,7 +4816,6 @@ PLyUnicode_FromString(const char *s)
 
    return o;
 }
-
 #endif   /* PY_MAJOR_VERSION >= 3 */
 
 #if PY_MAJOR_VERSION < 3
index 6e8c5c05b5ac8ce244bfcb9b75533fc6ff78f7b8..7b952b27e1ad2b2b24ebca9e048cca6267d88f80 100644 (file)
@@ -95,9 +95,9 @@ PG_MODULE_MAGIC;
  **********************************************************************/
 typedef struct pltcl_interp_desc
 {
-   Oid         user_id;                /* Hash key (must be first!) */
-   Tcl_Interp *interp;                 /* The interpreter */
-   Tcl_HashTable query_hash;           /* pltcl_query_desc structs */
+   Oid         user_id;        /* Hash key (must be first!) */
+   Tcl_Interp *interp;         /* The interpreter */
+   Tcl_HashTable query_hash;   /* pltcl_query_desc structs */
 } pltcl_interp_desc;
 
 
@@ -148,18 +148,19 @@ typedef struct pltcl_query_desc
  **********************************************************************/
 typedef struct pltcl_proc_key
 {
-   Oid         proc_id;                /* Function OID */
+   Oid         proc_id;        /* Function OID */
+
    /*
     * is_trigger is really a bool, but declare as Oid to ensure this struct
     * contains no padding
     */
-   Oid         is_trigger;             /* is it a trigger function? */
-   Oid         user_id;                /* User calling the function, or 0 */
+   Oid         is_trigger;     /* is it a trigger function? */
+   Oid         user_id;        /* User calling the function, or 0 */
 } pltcl_proc_key;
 
 typedef struct pltcl_proc_ptr
 {
-   pltcl_proc_key proc_key;            /* Hash key (must be first!) */
+   pltcl_proc_key proc_key;    /* Hash key (must be first!) */
    pltcl_proc_desc *proc_ptr;
 } pltcl_proc_ptr;
 
@@ -196,7 +197,7 @@ static HeapTuple pltcl_trigger_handler(PG_FUNCTION_ARGS, bool pltrusted);
 static void throw_tcl_error(Tcl_Interp *interp, const char *proname);
 
 static pltcl_proc_desc *compile_pltcl_function(Oid fn_oid, Oid tgreloid,
-                                              bool pltrusted);
+                      bool pltrusted);
 
 static int pltcl_elog(ClientData cdata, Tcl_Interp *interp,
           int argc, CONST84 char *argv[]);
index 62932c200563493029146b50e257f80e46e55148..e4f3dc99e0e3e34c76c0804fa601a69cda1c3e32 100644 (file)
@@ -333,7 +333,7 @@ pg_get_encoding_from_locale(const char *ctype, bool write_message)
        ereport(WARNING,
                (errmsg("could not determine encoding for locale \"%s\": codeset is \"%s\"",
                        ctype, sys),
-                errdetail("Please report this to <pgsql-bugs@postgresql.org>.")));
+          errdetail("Please report this to <pgsql-bugs@postgresql.org>.")));
 #endif
    }
 
index 7f18e1d2a7bc6dc2ca4a227aa481db0e72142927..9347d3b47c97a31c8871594813e7deca4ee0b36b 100644 (file)
@@ -236,7 +236,7 @@ typedef union
 #if defined(B64)
    B64         b64;
 #endif
-}  C_block;
+} C_block;
 
 /*
  * Convert twenty-four-bit long in host-order
index b6a5564c2c49373a39d2beebffc28836013a734c..17fd96573dbdddafdc17a7d36491cb901d2be916 100644 (file)
@@ -211,7 +211,7 @@ typedef struct
    WORD        PrintNameOffset;
    WORD        PrintNameLength;
    WCHAR       PathBuffer[1];
-}  REPARSE_JUNCTION_DATA_BUFFER;
+} REPARSE_JUNCTION_DATA_BUFFER;
 
 #define REPARSE_JUNCTION_DATA_BUFFER_HEADER_SIZE   \
        FIELD_OFFSET(REPARSE_JUNCTION_DATA_BUFFER, SubstituteNameOffset)
index 6027917b5763f8e67b44df4cd6a2b13e68b8ac5c..21a951c424de1c445f4ae4830e0723ea10bfee25 100644 (file)
@@ -358,7 +358,7 @@ pipe_read_line(char *cmd, char *line, int maxsize)
    if (fgets(line, maxsize, pgver) == NULL)
    {
        perror("fgets failure");
-       pclose(pgver);      /* no error checking */
+       pclose(pgver);          /* no error checking */
        return NULL;
    }
 
index fabd50dddbe9247f4efe0d64e0b285fe8323585c..db19878ae1478c7e01b695e4d2b09b26d63c1f3e 100644 (file)
@@ -329,7 +329,7 @@ gai_strerror(int errcode)
            return "Not enough memory";
 #endif
 #ifdef EAI_NODATA
-#if !defined(WIN64) && !defined(WIN32_ONLY_COMPILER) /* MSVC/WIN64 duplicate */
+#if !defined(WIN64) && !defined(WIN32_ONLY_COMPILER)   /* MSVC/WIN64 duplicate */
        case EAI_NODATA:
            return "No host data of that type was found";
 #endif
@@ -390,9 +390,9 @@ getnameinfo(const struct sockaddr * sa, int salen,
        if (sa->sa_family == AF_INET)
        {
            if (inet_net_ntop(AF_INET, &((struct sockaddr_in *) sa)->sin_addr,
-               sa->sa_family == AF_INET ? 32 : 128,
-               node, nodelen) == NULL)
-           return EAI_MEMORY;
+                             sa->sa_family == AF_INET ? 32 : 128,
+                             node, nodelen) == NULL)
+               return EAI_MEMORY;
        }
        else
            return EAI_MEMORY;
index 7ed3867c051db2fd1b13252a5b1fe52f94182b71..9c3c93b8ecca9509e5fc759acef9d6d12d4a9a29 100644 (file)
@@ -78,11 +78,11 @@ char *
 inet_net_ntop(int af, const void *src, int bits, char *dst, size_t size)
 {
    /*
-    * We need to cover both the address family constants used by the PG
-    * inet type (PGSQL_AF_INET and PGSQL_AF_INET6) and those used by the
-    * system libraries (AF_INET and AF_INET6).  We can safely assume
-    * PGSQL_AF_INET == AF_INET, but the INET6 constants are very likely
-    * to be different.  If AF_INET6 isn't defined, silently ignore it.
+    * We need to cover both the address family constants used by the PG inet
+    * type (PGSQL_AF_INET and PGSQL_AF_INET6) and those used by the system
+    * libraries (AF_INET and AF_INET6).  We can safely assume PGSQL_AF_INET
+    * == AF_INET, but the INET6 constants are very likely to be different.
+    * If AF_INET6 isn't defined, silently ignore it.
     */
    switch (af)
    {
index df2c4e7be6d592c4bf7d52349d748fd42ea90eeb..0d40a0bb9c1c26a4948618c2fa992dbb071724c6 100644 (file)
@@ -374,21 +374,22 @@ path_is_relative_and_below_cwd(const char *path)
    else if (path_contains_parent_reference(path))
        return false;
 #ifdef WIN32
+
    /*
-    *  On Win32, a drive letter _not_ followed by a slash, e.g. 'E:abc', is
-    *  relative to the cwd on that drive, or the drive's root directory
-    *  if that drive has no cwd.  Because the path itself cannot tell us
-    *  which is the case, we have to assume the worst, i.e. that it is not
-    *  below the cwd.  We could use GetFullPathName() to find the full path
-    *  but that could change if the current directory for the drive changes
-    *  underneath us, so we just disallow it.
+    * On Win32, a drive letter _not_ followed by a slash, e.g. 'E:abc', is
+    * relative to the cwd on that drive, or the drive's root directory if
+    * that drive has no cwd.  Because the path itself cannot tell us which is
+    * the case, we have to assume the worst, i.e. that it is not below the
+    * cwd.  We could use GetFullPathName() to find the full path but that
+    * could change if the current directory for the drive changes underneath
+    * us, so we just disallow it.
     */
    else if (isalpha((unsigned char) path[0]) && path[1] == ':' &&
-           !IS_DIR_SEP(path[2]))
+            !IS_DIR_SEP(path[2]))
        return false;
 #endif
    else
-       return true;    
+       return true;
 }
 
 /*
index b65db5e9695aaff1b66054f0eace324e42ab0f54..84367f7c9b30826db14ddd014a7870cc5bfb0fa5 100644 (file)
@@ -9,18 +9,18 @@
  * modification, are permitted provided that the following conditions
  * are met:
  * 1. Redistributions of source code must retain the above copyright
- *    notice, this list of conditions and the following disclaimer.
+ *   notice, this list of conditions and the following disclaimer.
  * 2. Redistributions in binary form must reproduce the above copyright
- *    notice, this list of conditions and the following disclaimer in the
- *    documentation and/or other materials provided with the distribution.
+ *   notice, this list of conditions and the following disclaimer in the
+ *   documentation and/or other materials provided with the distribution.
  * 4. Neither the name of the University nor the names of its contributors
- *    may be used to endorse or promote products derived from this software
- *    without specific prior written permission.
+ *   may be used to endorse or promote products derived from this software
+ *   without specific prior written permission.
  *
  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
+ * ARE DISCLAIMED. IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
index 88cb4d4c2b98f88487000bc2e40a87e1e6d5474f..9f719505f492f33a65401a75102fbbe81822aa74 100644 (file)
@@ -108,7 +108,7 @@ typedef struct
    /* bufend == NULL is for sprintf, where we assume buf is big enough */
    FILE       *stream;         /* eventual output destination, or NULL */
    int         nchars;         /* # chars already sent to stream */
-}  PrintfTarget;
+} PrintfTarget;
 
 /*
  * Info about the type and value of a formatting parameter.  Note that we
@@ -124,7 +124,7 @@ typedef enum
    ATYPE_LONGLONG,
    ATYPE_DOUBLE,
    ATYPE_CHARPTR
-}  PrintfArgType;
+} PrintfArgType;
 
 typedef union
 {
@@ -133,11 +133,11 @@ typedef union
    int64       ll;
    double      d;
    char       *cptr;
-}  PrintfArgValue;
+} PrintfArgValue;
 
 
-static void flushbuffer(PrintfTarget * target);
-static int dopr(PrintfTarget * target, const char *format, va_list args);
+static void flushbuffer(PrintfTarget *target);
+static int dopr(PrintfTarget *target, const char *format, va_list args);
 
 
 int
@@ -257,7 +257,7 @@ pg_printf(const char *fmt,...)
 
 /* call this only when stream is defined */
 static void
-flushbuffer(PrintfTarget * target)
+flushbuffer(PrintfTarget *target)
 {
    size_t      nc = target->bufptr - target->bufstart;
 
@@ -268,29 +268,29 @@ flushbuffer(PrintfTarget * target)
 
 
 static void fmtstr(char *value, int leftjust, int minlen, int maxwidth,
-      int pointflag, PrintfTarget * target);
-static void fmtptr(void *value, PrintfTarget * target);
+      int pointflag, PrintfTarget *target);
+static void fmtptr(void *value, PrintfTarget *target);
 static void fmtint(int64 value, char type, int forcesign,
       int leftjust, int minlen, int zpad, int precision, int pointflag,
-      PrintfTarget * target);
-static void fmtchar(int value, int leftjust, int minlen, PrintfTarget * target);
+      PrintfTarget *target);
+static void fmtchar(int value, int leftjust, int minlen, PrintfTarget *target);
 static void fmtfloat(double value, char type, int forcesign,
         int leftjust, int minlen, int zpad, int precision, int pointflag,
-        PrintfTarget * target);
-static void dostr(const char *str, int slen, PrintfTarget * target);
-static void dopr_outch(int c, PrintfTarget * target);
+        PrintfTarget *target);
+static void dostr(const char *str, int slen, PrintfTarget *target);
+static void dopr_outch(int c, PrintfTarget *target);
 static int adjust_sign(int is_negative, int forcesign, int *signvalue);
 static void adjust_padlen(int minlen, int vallen, int leftjust, int *padlen);
 static void leading_pad(int zpad, int *signvalue, int *padlen,
-           PrintfTarget * target);
-static void trailing_pad(int *padlen, PrintfTarget * target);
+           PrintfTarget *target);
+static void trailing_pad(int *padlen, PrintfTarget *target);
 
 
 /*
  * dopr(): poor man's version of doprintf
  */
 static int
-dopr(PrintfTarget * target, const char *format, va_list args)
+dopr(PrintfTarget *target, const char *format, va_list args)
 {
    const char *format_start = format;
    int         ch;
@@ -764,7 +764,7 @@ pg_strnlen(const char *str, size_t maxlen)
 
 static void
 fmtstr(char *value, int leftjust, int minlen, int maxwidth,
-      int pointflag, PrintfTarget * target)
+      int pointflag, PrintfTarget *target)
 {
    int         padlen,
                vallen;         /* amount to pad */
@@ -792,7 +792,7 @@ fmtstr(char *value, int leftjust, int minlen, int maxwidth,
 }
 
 static void
-fmtptr(void *value, PrintfTarget * target)
+fmtptr(void *value, PrintfTarget *target)
 {
    int         vallen;
    char        convert[64];
@@ -806,7 +806,7 @@ fmtptr(void *value, PrintfTarget * target)
 static void
 fmtint(int64 value, char type, int forcesign, int leftjust,
       int minlen, int zpad, int precision, int pointflag,
-      PrintfTarget * target)
+      PrintfTarget *target)
 {
    uint64      base;
    int         dosign;
@@ -883,7 +883,7 @@ fmtint(int64 value, char type, int forcesign, int leftjust,
 }
 
 static void
-fmtchar(int value, int leftjust, int minlen, PrintfTarget * target)
+fmtchar(int value, int leftjust, int minlen, PrintfTarget *target)
 {
    int         padlen = 0;     /* amount to pad */
 
@@ -903,7 +903,7 @@ fmtchar(int value, int leftjust, int minlen, PrintfTarget * target)
 static void
 fmtfloat(double value, char type, int forcesign, int leftjust,
         int minlen, int zpad, int precision, int pointflag,
-        PrintfTarget * target)
+        PrintfTarget *target)
 {
    int         signvalue = 0;
    int         vallen;
@@ -932,7 +932,7 @@ fmtfloat(double value, char type, int forcesign, int leftjust,
 }
 
 static void
-dostr(const char *str, int slen, PrintfTarget * target)
+dostr(const char *str, int slen, PrintfTarget *target)
 {
    while (slen > 0)
    {
@@ -959,7 +959,7 @@ dostr(const char *str, int slen, PrintfTarget * target)
 }
 
 static void
-dopr_outch(int c, PrintfTarget * target)
+dopr_outch(int c, PrintfTarget *target)
 {
    if (target->bufend != NULL && target->bufptr >= target->bufend)
    {
@@ -998,7 +998,7 @@ adjust_padlen(int minlen, int vallen, int leftjust, int *padlen)
 
 
 static void
-leading_pad(int zpad, int *signvalue, int *padlen, PrintfTarget * target)
+leading_pad(int zpad, int *signvalue, int *padlen, PrintfTarget *target)
 {
    if (*padlen > 0 && zpad)
    {
@@ -1031,7 +1031,7 @@ leading_pad(int zpad, int *signvalue, int *padlen, PrintfTarget * target)
 
 
 static void
-trailing_pad(int *padlen, PrintfTarget * target)
+trailing_pad(int *padlen, PrintfTarget *target)
 {
    while (*padlen < 0)
    {
index 248cead79d68d24a17a766df5a850d982ce61ec6..339e17259373677558aa95c4a70a6fbae2dcb575 100644 (file)
@@ -31,8 +31,8 @@ unsetenv(const char *name)
     * that we zap the actual environ member.  However, there are some libc
     * implementations (notably recent BSDs) that do not obey SUS but copy the
     * presented string.  This method fails on such platforms.  Hopefully all
-    * such platforms have unsetenv() and thus won't be using this hack.
-    * See:  http://www.greenend.org.uk/rjk/2008/putenv.html
+    * such platforms have unsetenv() and thus won't be using this hack. See:
+    * http://www.greenend.org.uk/rjk/2008/putenv.html
     *
     * Note that repeatedly setting and unsetting a var using this code will
     * leak memory.
index 7d2cfa2ea82931f33facf7c5a4a5c3ff3646f017..2df12f879e4f7454f335ce405f86eacb34232f42 100644 (file)
@@ -18,9 +18,9 @@
  */
 static PID_TYPE
 isolation_start_test(const char *testname,
-               _stringlist ** resultfiles,
-               _stringlist ** expectfiles,
-               _stringlist ** tags)
+                    _stringlist ** resultfiles,
+                    _stringlist ** expectfiles,
+                    _stringlist ** tags)
 {
    PID_TYPE    pid;
    char        infile[MAXPGPATH];
index 99460519456066e8df8093c31ac5cf4588b0de8f..44a4858c96c9825c89a9ad5c5f4f54bc0086b36f 100644 (file)
 
 #include "isolationtester.h"
 
-static PGconn  **conns = NULL;
-static int    nconns = 0;
+static PGconn **conns = NULL;
+static int nconns = 0;
 
-static void run_all_permutations(TestSpec *testspec);
-static void run_all_permutations_recurse(TestSpec *testspec, int nsteps, Step **steps);
-static void run_named_permutations(TestSpec *testspec);
-static void run_permutation(TestSpec *testspec, int nsteps, Step **steps);
+static void run_all_permutations(TestSpec * testspec);
+static void run_all_permutations_recurse(TestSpec * testspec, int nsteps, Step ** steps);
+static void run_named_permutations(TestSpec * testspec);
+static void run_permutation(TestSpec * testspec, int nsteps, Step ** steps);
 
-static int step_qsort_cmp(const void *a, const void *b);
-static int step_bsearch_cmp(const void *a, const void *b);
+static int step_qsort_cmp(const void *a, const void *b);
+static int step_bsearch_cmp(const void *a, const void *b);
 
 static void printResultSet(PGresult *res);
 
@@ -35,6 +35,7 @@ static void
 exit_nicely(void)
 {
    int         i;
+
    for (i = 0; i < nconns; i++)
        PQfinish(conns[i]);
    exit(1);
@@ -49,9 +50,8 @@ main(int argc, char **argv)
 
    /*
     * If the user supplies a parameter on the command line, use it as the
-    * conninfo string; otherwise default to setting dbname=postgres and
-    * using environment variables or defaults for all other connection
-    * parameters.
+    * conninfo string; otherwise default to setting dbname=postgres and using
+    * environment variables or defaults for all other connection parameters.
     */
    if (argc > 1)
        conninfo = argv[1];
@@ -68,7 +68,7 @@ main(int argc, char **argv)
    conns = calloc(nconns, sizeof(PGconn *));
    for (i = 0; i < testspec->nsessions; i++)
    {
-       PGresult *res;
+       PGresult   *res;
 
        conns[i] = PQconnectdb(conninfo);
        if (PQstatus(conns[i]) != CONNECTION_OK)
@@ -94,8 +94,9 @@ main(int argc, char **argv)
    /* Set the session index fields in steps. */
    for (i = 0; i < testspec->nsessions; i++)
    {
-       Session *session = testspec->sessions[i];
-       int     stepindex;
+       Session    *session = testspec->sessions[i];
+       int         stepindex;
+
        for (stepindex = 0; stepindex < session->nsteps; stepindex++)
            session->steps[stepindex]->session = i;
    }
@@ -121,7 +122,7 @@ static int *piles;
  * Run all permutations of the steps and sessions.
  */
 static void
-run_all_permutations(TestSpec *testspec)
+run_all_permutations(TestSpec * testspec)
 {
    int         nsteps;
    int         i;
@@ -135,13 +136,13 @@ run_all_permutations(TestSpec *testspec)
    steps = malloc(sizeof(Step *) * nsteps);
 
    /*
-    * To generate the permutations, we conceptually put the steps of
-    * each session on a pile. To generate a permuation, we pick steps
-    * from the piles until all piles are empty. By picking steps from
-    * piles in different order, we get different permutations.
+    * To generate the permutations, we conceptually put the steps of each
+    * session on a pile. To generate a permuation, we pick steps from the
+    * piles until all piles are empty. By picking steps from piles in
+    * different order, we get different permutations.
     *
-    * A pile is actually just an integer which tells how many steps
-    * we've already picked from this pile.
+    * A pile is actually just an integer which tells how many steps we've
+    * already picked from this pile.
     */
    piles = malloc(sizeof(int) * testspec->nsessions);
    for (i = 0; i < testspec->nsessions; i++)
@@ -151,10 +152,10 @@ run_all_permutations(TestSpec *testspec)
 }
 
 static void
-run_all_permutations_recurse(TestSpec *testspec, int nsteps, Step **steps)
+run_all_permutations_recurse(TestSpec * testspec, int nsteps, Step ** steps)
 {
-   int i;
-   int found = 0;
+   int         i;
+   int         found = 0;
 
    for (i = 0; i < testspec->nsessions; i++)
    {
@@ -181,12 +182,13 @@ run_all_permutations_recurse(TestSpec *testspec, int nsteps, Step **steps)
  * Run permutations given in the test spec
  */
 static void
-run_named_permutations(TestSpec *testspec)
+run_named_permutations(TestSpec * testspec)
 {
-   int     i, j;
-   int     n;
-   int     nallsteps;
-   Step  **allsteps;
+   int         i,
+               j;
+   int         n;
+   int         nallsteps;
+   Step      **allsteps;
 
    /* First create a lookup table of all steps */
    nallsteps = 0;
@@ -207,7 +209,7 @@ run_named_permutations(TestSpec *testspec)
    for (i = 0; i < testspec->npermutations; i++)
    {
        Permutation *p = testspec->permutations[i];
-       Step **steps;
+       Step      **steps;
 
        steps = malloc(p->nsteps * sizeof(Step *));
 
@@ -215,7 +217,7 @@ run_named_permutations(TestSpec *testspec)
        for (j = 0; j < p->nsteps; j++)
        {
            steps[j] = *((Step **) bsearch(p->stepnames[j], allsteps, nallsteps,
-                                          sizeof(Step *), &step_bsearch_cmp));
+                                        sizeof(Step *), &step_bsearch_cmp));
            if (steps[j] == NULL)
            {
                fprintf(stderr, "undefined step \"%s\" specified in permutation\n", p->stepnames[j]);
@@ -231,8 +233,8 @@ run_named_permutations(TestSpec *testspec)
 static int
 step_qsort_cmp(const void *a, const void *b)
 {
-   Step *stepa = *((Step **) a);
-   Step *stepb = *((Step **) b);
+   Step       *stepa = *((Step **) a);
+   Step       *stepb = *((Step **) b);
 
    return strcmp(stepa->name, stepb->name);
 }
@@ -240,8 +242,8 @@ step_qsort_cmp(const void *a, const void *b)
 static int
 step_bsearch_cmp(const void *a, const void *b)
 {
-   char *stepname = (char *) a;
-   Step *step = *((Step **) b);
+   char       *stepname = (char *) a;
+   Step       *step = *((Step **) b);
 
    return strcmp(stepname, step->name);
 }
@@ -250,10 +252,10 @@ step_bsearch_cmp(const void *a, const void *b)
  * Run one permutation
  */
 static void
-run_permutation(TestSpec *testspec, int nsteps, Step **steps)
+run_permutation(TestSpec * testspec, int nsteps, Step ** steps)
 {
-   PGresult *res;
-   int i;
+   PGresult   *res;
+   int         i;
 
    printf("\nstarting permutation:");
    for (i = 0; i < nsteps; i++)
@@ -292,11 +294,12 @@ run_permutation(TestSpec *testspec, int nsteps, Step **steps)
    /* Perform steps */
    for (i = 0; i < nsteps; i++)
    {
-       Step *step = steps[i];
+       Step       *step = steps[i];
+
        printf("step %s: %s\n", step->name, step->sql);
        res = PQexec(conns[step->session], step->sql);
 
-       switch(PQresultStatus(res))
+       switch (PQresultStatus(res))
        {
            case PGRES_COMMAND_OK:
                break;
@@ -353,20 +356,21 @@ run_permutation(TestSpec *testspec, int nsteps, Step **steps)
 static void
 printResultSet(PGresult *res)
 {
-   int     nFields;
-   int     i, j;
-
-    /* first, print out the attribute names */
-    nFields = PQnfields(res);
-    for (i = 0; i < nFields; i++)
-        printf("%-15s", PQfname(res, i));
-    printf("\n\n");
-
-    /* next, print out the rows */
-    for (i = 0; i < PQntuples(res); i++)
-    {
-        for (j = 0; j < nFields; j++)
-            printf("%-15s", PQgetvalue(res, i, j));
-        printf("\n");
-    }
+   int         nFields;
+   int         i,
+               j;
+
+   /* first, print out the attribute names */
+   nFields = PQnfields(res);
+   for (i = 0; i < nFields; i++)
+       printf("%-15s", PQfname(res, i));
+   printf("\n\n");
+
+   /* next, print out the rows */
+   for (i = 0; i < PQntuples(res); i++)
+   {
+       for (j = 0; j < nFields; j++)
+           printf("%-15s", PQgetvalue(res, i, j));
+       printf("\n");
+   }
 }
index 1f86db8727d2ce9771998e2a407d7a0c45692f37..377c10c393c1829cff58c93783792d7de9f4b717 100644 (file)
@@ -28,7 +28,7 @@ struct Session
 
 struct Step
 {
-   int        session;
+   int         session;
    char       *name;
    char       *sql;
 };
@@ -37,19 +37,19 @@ typedef struct
 {
    int         nsteps;
    char      **stepnames;
-} Permutation;
+}  Permutation;
 
 typedef struct
 {
    char       *setupsql;
    char       *teardownsql;
-   Session   **sessions;
+   Session   **sessions;
    int         nsessions;
    Permutation **permutations;
    int         npermutations;
-} TestSpec;
+}  TestSpec;
 
-extern TestSpec    parseresult;
+extern TestSpec parseresult;
 
 extern int spec_yyparse(void);
 
index fd7068dcc6ab98a6399685b7c2036f767ef07872..c639c479e4db3de73ff8b9a415853eddacf0f17f 100644 (file)
@@ -1805,8 +1805,8 @@ create_database(const char *dbname)
    }
 
    /*
-    * Install any requested extensions.  We use CREATE IF NOT EXISTS
-    * so that this will work whether or not the extension is preinstalled.
+    * Install any requested extensions.  We use CREATE IF NOT EXISTS so that
+    * this will work whether or not the extension is preinstalled.
     */
    for (sl = loadextension; sl != NULL; sl = sl->next)
    {