Fix typos in comments and in one isolation test.
authorRobert Haas <rhaas@postgresql.org>
Tue, 2 Jan 2024 16:56:02 +0000 (11:56 -0500)
committerRobert Haas <rhaas@postgresql.org>
Tue, 2 Jan 2024 17:05:41 +0000 (12:05 -0500)
Dagfinn Ilmari MannsÃ¥ker, reviewed by Shubham Khanna. Some subtractions
by me.

Discussion: http://postgr.es/m/87le9fmi01.fsf@wibble.ilmari.org

29 files changed:
contrib/bloom/bloom.h
contrib/pgcrypto/expected/pgp-compression.out
contrib/pgcrypto/openssl.c
contrib/pgcrypto/sql/pgp-compression.sql
contrib/postgres_fdw/expected/postgres_fdw.out
contrib/postgres_fdw/sql/postgres_fdw.sql
src/backend/access/brin/brin.c
src/backend/access/common/heaptuple.c
src/backend/access/nbtree/nbtree.c
src/backend/catalog/namespace.c
src/backend/catalog/pg_constraint.c
src/backend/commands/event_trigger.c
src/backend/executor/execMain.c
src/backend/optimizer/plan/initsplan.c
src/backend/utils/adt/rangetypes.c
src/backend/utils/sort/tuplesortvariants.c
src/backend/utils/time/combocid.c
src/bin/pg_rewind/t/001_basic.pl
src/bin/pg_rewind/t/004_pg_xlog_symlink.pl
src/bin/pg_rewind/t/007_standby_source.pl
src/bin/pg_rewind/t/009_growing_files.pl
src/include/pg_config_manual.h
src/test/isolation/specs/stats.spec
src/test/regress/expected/boolean.out
src/test/regress/expected/brin_multi.out
src/test/regress/expected/join.out
src/test/regress/sql/boolean.sql
src/test/regress/sql/brin_multi.sql
src/test/regress/sql/join.sql

index 330811ec60817b1b7d0731aa0f6eccefbe109668..7c4407b9ece9a9861ba8532d86d509e2ddeee9e0 100644 (file)
@@ -127,7 +127,7 @@ typedef struct BloomMetaPageData
    FreeBlockNumberArray notFullPage;
 } BloomMetaPageData;
 
-/* Magic number to distinguish bloom pages among anothers */
+/* Magic number to distinguish bloom pages from others */
 #define BLOOM_MAGICK_NUMBER (0xDBAC0DED)
 
 /* Number of blocks numbers fit in BloomMetaPageData */
index d4c57feba30b84dc86c6a8287dbfef4c69fbf71e..67e2dce897a9d534e7db78a60f9e829a9204677d 100644 (file)
@@ -60,7 +60,7 @@ WITH random_string AS
   -- This generates a random string of 16366 bytes.  This is chosen
   -- as random so that it does not get compressed, and the decompression
   -- would work on a string with the same length as the origin, making the
-  -- test behavior more predictible.  lpad() ensures that the generated
+  -- test behavior more predictable.  lpad() ensures that the generated
   -- hexadecimal value is completed by extra zero characters if random()
   -- has generated a value strictly lower than 16.
   SELECT string_agg(decode(lpad(to_hex((random()*256)::int), 2, '0'), 'hex'), '') as bytes
index 4a913bd04f763cadc6cd3897a1a4e42c4bcd1981..8259de5e393d97195b39ff73c30a406560882d1b 100644 (file)
@@ -460,7 +460,7 @@ bf_init(PX_Cipher *c, const uint8 *key, unsigned klen, const uint8 *iv)
 
    /*
     * Test if key len is supported. BF_set_key silently cut large keys and it
-    * could be a problem when user transfer crypted data from one server to
+    * could be a problem when user transfer encrypted data from one server to
     * another.
     */
 
index 87c59c6cabc4e7f380992c28625b12e662e1722b..82080e4389cae3b77369fdbf3fb76beddd3f00ac 100644 (file)
@@ -36,7 +36,7 @@ WITH random_string AS
   -- This generates a random string of 16366 bytes.  This is chosen
   -- as random so that it does not get compressed, and the decompression
   -- would work on a string with the same length as the origin, making the
-  -- test behavior more predictible.  lpad() ensures that the generated
+  -- test behavior more predictable.  lpad() ensures that the generated
   -- hexadecimal value is completed by extra zero characters if random()
   -- has generated a value strictly lower than 16.
   SELECT string_agg(decode(lpad(to_hex((random()*256)::int), 2, '0'), 'hex'), '') as bytes
index c988745b9262b4305212f86011e6fe8ae6423eff..d83f6ae8cbcd616b4ea3df856edc52104eca3f95 100644 (file)
@@ -4819,7 +4819,7 @@ SELECT * FROM ft2 ftupper WHERE
  925 |  5 | 00925 | Mon Jan 26 00:00:00 1970 PST | Mon Jan 26 00:00:00 1970 | 5  | 5          | foo
 (10 rows)
 
--- EXISTS should be propogated to the highest upper inner join
+-- EXISTS should be propagated to the highest upper inner join
 EXPLAIN (verbose, costs off)
    SELECT ft2.*, ft4.* FROM ft2 INNER JOIN
    (SELECT * FROM ft4 WHERE EXISTS (
index cb405407028d5c7fc221dbde27279e3f6c86590d..90c8fa4b705cfc6c188057040f22c177a7c2743e 100644 (file)
@@ -1399,7 +1399,7 @@ SELECT * FROM ft2 ftupper WHERE
   AND ftupper.c1 > 900
   ORDER BY ftupper.c1 LIMIT 10;
 
--- EXISTS should be propogated to the highest upper inner join
+-- EXISTS should be propagated to the highest upper inner join
 EXPLAIN (verbose, costs off)
    SELECT ft2.*, ft4.* FROM ft2 INNER JOIN
    (SELECT * FROM ft4 WHERE EXISTS (
index dfa34f49a4f9b11e289e4813e0d932764ad5c845..6f1f5518977b5e937a09cec0d538ad00589341a5 100644 (file)
@@ -348,7 +348,7 @@ brininsert(Relation idxRel, Datum *values, bool *nulls,
    bool        autosummarize = BrinGetAutoSummarize(idxRel);
 
    /*
-    * If firt time through in this statement, initialize the insert state
+    * If first time through in this statement, initialize the insert state
     * that we keep for all the inserts in the command.
     */
    if (!bistate)
@@ -1042,7 +1042,7 @@ brinbuildCallbackParallel(Relation index,
    /*
     * If we're in a block that belongs to a different range, summarize what
     * we've got and start afresh.  Note the scan might have skipped many
-    * pages, if they were devoid of live tuples; we do not create emptry BRIN
+    * pages, if they were devoid of live tuples; we do not create empty BRIN
     * ranges here - the leader is responsible for filling them in.
     *
     * Unlike serial builds, parallel index builds allow synchronized seqscans
@@ -2149,7 +2149,7 @@ union_tuples(BrinDesc *bdesc, BrinMemTuple *a, BrinTuple *b)
  * brin_vacuum_scan
  *     Do a complete scan of the index during VACUUM.
  *
- * This routine scans the complete index looking for uncatalogued index pages,
+ * This routine scans the complete index looking for uncataloged index pages,
  * i.e. those that might have been lost due to a crash after index extension
  * and such.
  */
index c52d40dce0fe9f0cf687768c988af1ab52040567..88fb9e344538afffef62c77818ecc7abc5b7749d 100644 (file)
@@ -85,7 +85,7 @@
    ((att)->attstorage != TYPSTORAGE_PLAIN)
 
 /*
- * Setup for cacheing pass-by-ref missing attributes in a way that survives
+ * Setup for caching pass-by-ref missing attributes in a way that survives
  * tupleDesc destruction.
  */
 
index dd6dc0971bcf5e5c7631a781159995298de1786b..c95b52eac49579d0ebd3f17ec5340aa1394d84d8 100644 (file)
@@ -158,7 +158,7 @@ btbuildempty(Relation index)
    Page        metapage;
 
    /*
-    * Initalize the metapage.
+    * Initialize the metapage.
     *
     * Regular index build bypasses the buffer manager and uses smgr functions
     * directly, with an smgrimmedsync() call at the end.  That makes sense
index 37a69e9023fb6c3f1200ca1da7473a2190854a0f..3f777693ae9b9b817ecd641406ed5c497172a1af 100644 (file)
@@ -4218,7 +4218,7 @@ cachedNamespacePath(const char *searchPath, Oid roleid)
    entry = spcache_insert(searchPath, roleid);
 
    /*
-    * An OOM may have resulted in a cache entry with mising 'oidlist' or
+    * An OOM may have resulted in a cache entry with missing 'oidlist' or
     * 'finalPath', so just compute whatever is missing.
     */
 
index e9d4d6006ef146b4e8716fec564fd54429074fac..b0730c99af178e179040f2f0ea405e5d6bf28959 100644 (file)
@@ -1290,7 +1290,7 @@ get_relation_constraint_attnos(Oid relid, const char *conname,
 
 /*
  * Return the OID of the constraint enforced by the given index in the
- * given relation; or InvalidOid if no such index is catalogued.
+ * given relation; or InvalidOid if no such index is cataloged.
  *
  * Much like get_constraint_index, this function is concerned only with the
  * one constraint that "owns" the given index.  Therefore, constraints of
index bf47b0f6e266087b1f37cb1f68cdc5a09fbf3371..35d5508f4a73cbb376f88ae68bf0f494de9941cd 100644 (file)
@@ -387,7 +387,7 @@ SetDatatabaseHasLoginEventTriggers(void)
    HeapTuple   tuple;
 
    /*
-    * Use shared lock to prevent a conflit with EventTriggerOnLogin() trying
+    * Use shared lock to prevent a conflict with EventTriggerOnLogin() trying
     * to reset pg_database.dathasloginevt flag.  Note, this lock doesn't
     * effectively blocks database or other objection.  It's just custom lock
     * tag used to prevent multiple backends changing
index 4c5a7bbf620a93c6dbc9972bcf475051584b64d9..9539377139b3f0df6777d129cbc2f62efccaddc9 100644 (file)
@@ -1849,7 +1849,7 @@ ExecPartitionCheck(ResultRelInfo *resultRelInfo, TupleTableSlot *slot,
    econtext->ecxt_scantuple = slot;
 
    /*
-    * As in case of the catalogued constraints, we treat a NULL result as
+    * As in case of the cataloged constraints, we treat a NULL result as
     * success here, not a failure.
     */
    success = ExecCheck(resultRelInfo->ri_PartitionCheckExpr, econtext);
index 8295e7753db8cdc92ccc358a8c10fd0ef875fae4..b0f9e21474f5eccd3181a7ce68e50be1a6018d92 100644 (file)
@@ -1928,8 +1928,8 @@ deconstruct_distribute_oj_quals(PlannerInfo *root,
         * jtitems list to be ordered that way.
         *
         * We first strip out all the nullingrels bits corresponding to
-        * commutating joins below this one, and then successively put them
-        * back as we crawl up the join stack.
+        * commuting joins below this one, and then successively put them back
+        * as we crawl up the join stack.
         */
        quals = jtitem->oj_joinclauses;
        if (!bms_is_empty(joins_below))
index 24bad52923975084c1134acfe5b7130417cb329d..d3fc88ec2dbf3fedaa707c56ff4212112758f9f9 100644 (file)
@@ -2608,7 +2608,7 @@ range_contains_elem_internal(TypeCacheEntry *typcache, const RangeType *r, Datum
  * values into a range object.  They are modeled after heaptuple.c's
  * heap_compute_data_size() and heap_fill_tuple(), but we need not handle
  * null values here.  TYPE_IS_PACKABLE must test the same conditions as
- * heaptuple.c's ATT_IS_PACKABLE macro.  See the comments thare for more
+ * heaptuple.c's ATT_IS_PACKABLE macro.  See the comments there for more
  * details.
  */
 
index 27425880a5f84ac2ba25085f0acd243bcbde57cc..1aa2a3bb5bd4d26ec92c40fe33d4492a599c62e1 100644 (file)
@@ -93,7 +93,7 @@ static void readtup_datum(Tuplesortstate *state, SortTuple *stup,
 static void freestate_cluster(Tuplesortstate *state);
 
 /*
- * Data struture pointed by "TuplesortPublic.arg" for the CLUSTER case.  Set by
+ * Data structure pointed by "TuplesortPublic.arg" for the CLUSTER case.  Set by
  * the tuplesort_begin_cluster.
  */
 typedef struct
@@ -105,7 +105,7 @@ typedef struct
 } TuplesortClusterArg;
 
 /*
- * Data struture pointed by "TuplesortPublic.arg" for the IndexTuple case.
+ * Data structure pointed by "TuplesortPublic.arg" for the IndexTuple case.
  * Set by tuplesort_begin_index_xxx and used only by the IndexTuple routines.
  */
 typedef struct
@@ -115,7 +115,7 @@ typedef struct
 } TuplesortIndexArg;
 
 /*
- * Data struture pointed by "TuplesortPublic.arg" for the index_btree subcase.
+ * Data structure pointed by "TuplesortPublic.arg" for the index_btree subcase.
  */
 typedef struct
 {
@@ -126,7 +126,7 @@ typedef struct
 } TuplesortIndexBTreeArg;
 
 /*
- * Data struture pointed by "TuplesortPublic.arg" for the index_hash subcase.
+ * Data structure pointed by "TuplesortPublic.arg" for the index_hash subcase.
  */
 typedef struct
 {
@@ -138,7 +138,7 @@ typedef struct
 } TuplesortIndexHashArg;
 
 /*
- * Data struture pointed by "TuplesortPublic.arg" for the Datum case.
+ * Data structure pointed by "TuplesortPublic.arg" for the Datum case.
  * Set by tuplesort_begin_datum and used only by the DatumTuple routines.
  */
 typedef struct
index 0e94bc93f748d64dce364efe3f4f04fc1b5b26ea..192d9c1efc3122fb4d98d24a544e34c7ce258824 100644 (file)
@@ -4,7 +4,7 @@
  *   Combo command ID support routines
  *
  * Before version 8.3, HeapTupleHeaderData had separate fields for cmin
- * and cmax.  To reduce the header size, cmin and cmax are now overlayed
+ * and cmax.  To reduce the header size, cmin and cmax are now overlaid
  * in the same field in the header.  That usually works because you rarely
  * insert and delete a tuple in the same transaction, and we don't need
  * either field to remain valid after the originating transaction exits.
index 842f6c7fbe4753b173fe286bb9a1dedf71c2769e..54cd00ca04df8d563db01dc13116fc1dcdae4988 100644 (file)
@@ -60,7 +60,7 @@ sub run_test
 
    # Insert a row in the old primary. This causes the primary and standby
    # to have "diverged", it's no longer possible to just apply the
-   # standy's logs over primary directory - you need to rewind.
+   # standby's logs over primary directory - you need to rewind.
    primary_psql("INSERT INTO tbl1 VALUES ('in primary, after promotion')");
 
    # Also insert a new row in the standby, which won't be present in the
index 7d1bb65cae2f2bba76fa67b603466300ef084a28..ad085d41ad08806240e846413cb3568ccceca06c 100644 (file)
@@ -52,7 +52,7 @@ sub run_test
 
    # Insert a row in the old primary. This causes the primary and standby
    # to have "diverged", it's no longer possible to just apply the
-   # standy's logs over primary directory - you need to rewind.
+   # standby's logs over primary directory - you need to rewind.
    primary_psql("INSERT INTO tbl1 VALUES ('in primary, after promotion')");
 
    # Also insert a new row in the standby, which won't be present in the
index fab84a4bbb01db8bbcb008aa8d50dc37c45150ac..47e8857198437edcbde5d65e94d5df11b8b7d3d6 100644 (file)
@@ -86,7 +86,7 @@ $node_c->promote;
 
 
 # Insert a row in A. This causes A/B and C to have "diverged", so that it's
-# no longer possible to just apply the standy's logs over primary directory
+# no longer possible to just apply the standby's logs over primary directory
 # - you need to rewind.
 $node_a->safe_psql('postgres',
    "INSERT INTO tbl1 VALUES ('in A, after C was promoted')");
index 016f7736e77aba217afdabe5deeed71d413c2bd6..c456a387b2f95aaa262fba48db858f552394f388 100644 (file)
@@ -28,7 +28,7 @@ primary_psql('CHECKPOINT');
 RewindTest::promote_standby();
 
 # Insert a row in the old primary. This causes the primary and standby to have
-# "diverged", it's no longer possible to just apply the standy's logs over
+# "diverged", it's no longer possible to just apply the standby's logs over
 # primary directory - you need to rewind.  Also insert a new row in the
 # standby, which won't be present in the old primary.
 primary_psql("INSERT INTO tbl1 VALUES ('in primary, after promotion')");
index 16c383ba7f78335bf7208d0044828d7b27b763d3..fd537329660bb9613c8df1dcbece07111b18f506 100644 (file)
 
 /*
  * Define this to force Bitmapset reallocation on each modification.  Helps
- * to find hangling pointers to Bitmapset's.
+ * to find dangling pointers to Bitmapset's.
  */
 /* #define REALLOCATE_BITMAPSETS */
 
index 5b922d788cc0b83bacc8051380b4c373e5d70966..a7daf2a49aae5218a5017b38a3ef8a7242893d09 100644 (file)
@@ -543,10 +543,10 @@ permutation
   s1_table_insert
   s1_begin
   s1_table_update_k1 # should *not* be counted, different rel
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_table_truncate
   s1_table_insert_k1 # should be counted
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_prepare_a
   s1_commit_prepared_a
   s1_ff
@@ -557,10 +557,10 @@ permutation
   s1_table_insert
   s1_begin
   s1_table_update_k1 # should *not* be counted, different rel
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_table_truncate
   s1_table_insert_k1 # should be counted
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_prepare_a
   s1_ff # flush out non-transactional stats, might happen anyway
   s2_commit_prepared_a
@@ -572,10 +572,10 @@ permutation
   s1_table_insert
   s1_begin
   s1_table_update_k1 # should be counted
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_table_truncate
   s1_table_insert_k1 # should *not* be counted, different rel
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_prepare_a
   s1_rollback_prepared_a
   s1_ff
@@ -586,10 +586,10 @@ permutation
   s1_table_insert
   s1_begin
   s1_table_update_k1 # should be counted
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_table_truncate
   s1_table_insert_k1 # should *not* be counted, different rel
-  s1_table_update_k1 # dito
+  s1_table_update_k1 # ditto
   s1_prepare_a
   s2_rollback_prepared_a
   s1_ff s2_ff
index ee9c244bf8e2f373da16890c29053a20ba2caa92..57d251eea76c20ea7df40202a127bc5db0b8da23 100644 (file)
@@ -486,7 +486,7 @@ FROM booltbl3 ORDER BY o;
 
 -- Test to make sure short-circuiting and NULL handling is
 -- correct. Use a table as source to prevent constant simplification
--- to interfer.
+-- from interfering.
 CREATE TABLE booltbl4(isfalse bool, istrue bool, isnul bool);
 INSERT INTO booltbl4 VALUES (false, true, null);
 \pset null '(null)'
index 7df42865daac3b67c16f778a0742833ec1183a6a..ae9ce9d8ecfe23183d85db90bf5595b36c82cc87 100644 (file)
@@ -826,11 +826,11 @@ RESET enable_seqscan;
 -- test overflows during CREATE INDEX with extreme timestamp values
 CREATE TABLE brin_timestamp_test(a TIMESTAMPTZ);
 SET datestyle TO iso;
--- values close to timetamp minimum
+-- values close to timestamp minimum
 INSERT INTO brin_timestamp_test
 SELECT '4713-01-01 00:00:01 BC'::timestamptz + (i || ' seconds')::interval
   FROM generate_series(1,30) s(i);
--- values close to timetamp maximum
+-- values close to timestamp maximum
 INSERT INTO brin_timestamp_test
 SELECT '294276-12-01 00:00:01'::timestamptz + (i || ' seconds')::interval
   FROM generate_series(1,30) s(i);
index 7c6f3cb15c9f77752a97cbd362d0aefa98e47107..ffc60eb21d03c57ea5e94389a2d8026ad7e63863 100644 (file)
@@ -6957,7 +6957,7 @@ WHERE q0.a = 1;
 (7 rows)
 
 --
----- Only one side is unqiue
+---- Only one side is unique
 --select * from sl t1, sl t2 where t1.a = t2.a and t1.b = 1;
 --select * from sl t1, sl t2 where t1.a = t2.a and t2.b = 1;
 --
index bc9937d6920af8fb688b2ce075f1276cf1762a12..5b9dcd23172c331571384cf05dba3f261d101882 100644 (file)
@@ -227,7 +227,7 @@ FROM booltbl3 ORDER BY o;
 
 -- Test to make sure short-circuiting and NULL handling is
 -- correct. Use a table as source to prevent constant simplification
--- to interfer.
+-- from interfering.
 CREATE TABLE booltbl4(isfalse bool, istrue bool, isnul bool);
 INSERT INTO booltbl4 VALUES (false, true, null);
 \pset null '(null)'
index c5a84845841cada5cd7cd77ca796234f405b8abc..55349b4e1fd12e0d0c540fdd3b4bdcdb1decd804 100644 (file)
@@ -592,12 +592,12 @@ CREATE TABLE brin_timestamp_test(a TIMESTAMPTZ);
 
 SET datestyle TO iso;
 
--- values close to timetamp minimum
+-- values close to timestamp minimum
 INSERT INTO brin_timestamp_test
 SELECT '4713-01-01 00:00:01 BC'::timestamptz + (i || ' seconds')::interval
   FROM generate_series(1,30) s(i);
 
--- values close to timetamp maximum
+-- values close to timestamp maximum
 INSERT INTO brin_timestamp_test
 SELECT '294276-12-01 00:00:01'::timestamptz + (i || ' seconds')::interval
   FROM generate_series(1,30) s(i);
index 6d3685626463d8087a36479961004e69fc3541ee..f51f39eee79ef7fbafab3a0bde1e8bb5d2c2b313 100644 (file)
@@ -2656,7 +2656,7 @@ SELECT * FROM
 WHERE q0.a = 1;
 
 --
----- Only one side is unqiue
+---- Only one side is unique
 --select * from sl t1, sl t2 where t1.a = t2.a and t1.b = 1;
 --select * from sl t1, sl t2 where t1.a = t2.a and t2.b = 1;
 --