PANIC on fsync() failure.
authorThomas Munro <tmunro@postgresql.org>
Mon, 19 Nov 2018 00:40:57 +0000 (13:40 +1300)
committerThomas Munro <tmunro@postgresql.org>
Mon, 19 Nov 2018 01:13:22 +0000 (14:13 +1300)
On some operating systems, it doesn't make sense to retry fsync(),
because dirty data cached by the kernel may have been dropped on
write-back failure.  In that case the only remaining copy of the
data is in the WAL.  A subsequent fsync() could appear to succeed,
but not have flushed the data.  That means that a future checkpoint
could apparently complete successfully but have lost data.

Therefore, violently prevent any future checkpoint attempts by
panicking on the first fsync() failure.  Note that we already
did the same for WAL data; this change extends that behavior to
non-temporary data files.

Provide a GUC data_sync_retry to control this new behavior, for
users of operating systems that don't eject dirty data, and possibly
forensic/testing uses.  If it is set to on and the write-back error
was transient, a later checkpoint might genuinely succeed (on a
system that does not throw away buffers on failure); if the error is
permanent, later checkpoints will continue to fail.  The GUC defaults
to off, meaning that we panic.

Back-patch to all supported releases.

There is still a narrow window for error-loss on some operating
systems: if the file is closed and later reopened and a write-back
error occurs in the intervening time, but the inode has the bad
luck to be evicted due to memory pressure before we reopen, we could
miss the error.  A later patch will address that with a scheme
for keeping files with dirty data open at all times, but we judge
that to be too complicated to back-patch.

Author: Craig Ringer, with some adjustments by Thomas Munro
Reported-by: Craig Ringer
Reviewed-by: Robert Haas, Thomas Munro, Andres Freund
Discussion: https://postgr.es/m/20180427222842.in2e4mibx45zdth5%40alap3.anarazel.de

12 files changed:
doc/src/sgml/config.sgml
src/backend/access/heap/rewriteheap.c
src/backend/access/transam/slru.c
src/backend/access/transam/timeline.c
src/backend/access/transam/xlog.c
src/backend/replication/logical/snapbuild.c
src/backend/storage/file/fd.c
src/backend/storage/smgr/md.c
src/backend/utils/cache/relmapper.c
src/backend/utils/misc/guc.c
src/backend/utils/misc/postgresql.conf.sample
src/include/storage/fd.h

index 0296634d2e2a8f798a0d2c23a2ebdd7c8e082c8c..f670ecc0439f90ab5e86a7d2770a266efa41c6bf 100644 (file)
@@ -7043,6 +7043,38 @@ dynamic_library_path = 'C:\tools\postgresql;H:\my_project\lib;$libdir'
       </listitem>
      </varlistentry>
 
+     <varlistentry id="guc-data-sync-retry" xreflabel="data_sync_retry">
+      <term><varname>data_sync_retry</varname> (<type>boolean</type>)
+      <indexterm>
+       <primary><varname>data_sync_retry</varname> configuration parameter</primary>
+      </indexterm>
+      </term>
+      <listitem>
+       <para>
+        When set to false, which is the default, <productname>PostgreSQL</productname>
+        will raise a PANIC-level error on failure to flush modified data files
+        to the filesystem.  This causes the database server to crash.
+       </para>
+       <para>
+        On some operating systems, the status of data in the kernel's page
+        cache is unknown after a write-back failure.  In some cases it might
+        have been entirely forgotten, making it unsafe to retry; the second
+        attempt may be reported as successful, when in fact the data has been
+        lost.  In these circumstances, the only way to avoid data loss is to
+        recover from the WAL after any failure is reported, preferably
+        after investigating the root cause of the failure and replacing any
+        faulty hardware.
+       </para>
+       <para>
+        If set to true, <productname>PostgreSQL</productname> will instead
+        report an error but continue to run so that the data flushing
+        operation can be retried in a later checkpoint.  Only set it to true
+        after investigating the operating system's treatment of buffered data
+        in case of write-back failure.
+       </para>
+      </listitem>
+     </varlistentry>
+
     </variablelist>
 
    </sect1>
index ca18d9867444dc0d32b09f1507ebc3bd41a66581..0577c540447dcc0285cafb332556f08b6abb94e8 100644 (file)
@@ -976,7 +976,7 @@ logical_end_heap_rewrite(RewriteState state)
    while ((src = (RewriteMappingFile *) hash_seq_search(&seq_status)) != NULL)
    {
        if (FileSync(src->vfd) != 0)
-           ereport(ERROR,
+           ereport(data_sync_elevel(ERROR),
                    (errcode_for_file_access(),
                     errmsg("could not fsync file \"%s\": %m", src->path)));
        FileClose(src->vfd);
@@ -1194,7 +1194,7 @@ heap_xlog_logical_rewrite(XLogReaderState *r)
     * doesn't seem worth the trouble.
     */
    if (pg_fsync(fd) != 0)
-       ereport(ERROR,
+       ereport(data_sync_elevel(ERROR),
                (errcode_for_file_access(),
                 errmsg("could not fsync file \"%s\": %m", path)));
 
@@ -1291,7 +1291,7 @@ CheckPointLogicalRewriteHeap(void)
             * but it's currently not deemed worth the effort.
             */
            else if (pg_fsync(fd) != 0)
-               ereport(ERROR,
+               ereport(data_sync_elevel(ERROR),
                        (errcode_for_file_access(),
                         errmsg("could not fsync file \"%s\": %m", path)));
            CloseTransientFile(fd);
index e098cebabf0ddd298d21b8a7ef3f79bcb7e94e96..217182f8cd68a4f0dc2892d343ec2270543094ec 100644 (file)
@@ -904,7 +904,7 @@ SlruReportIOError(SlruCtl ctl, int pageno, TransactionId xid)
                          path, offset)));
            break;
        case SLRU_FSYNC_FAILED:
-           ereport(ERROR,
+           ereport(data_sync_elevel(ERROR),
                    (errcode_for_file_access(),
                     errmsg("could not access status of transaction %u", xid),
                     errdetail("Could not fsync file \"%s\": %m.",
index 25ac70e8f4f759027b689c0059410b3e50ec87f4..6f48f199d1fa56e6576b3ccf94d6b31d5ca9750a 100644 (file)
@@ -402,7 +402,7 @@ writeTimeLineHistory(TimeLineID newTLI, TimeLineID parentTLI,
    }
 
    if (pg_fsync(fd) != 0)
-       ereport(ERROR,
+       ereport(data_sync_elevel(ERROR),
                (errcode_for_file_access(),
                 errmsg("could not fsync file \"%s\": %m", tmppath)));
 
@@ -478,7 +478,7 @@ writeTimeLineHistoryFile(TimeLineID tli, char *content, int size)
    }
 
    if (pg_fsync(fd) != 0)
-       ereport(ERROR,
+       ereport(data_sync_elevel(ERROR),
                (errcode_for_file_access(),
                 errmsg("could not fsync file \"%s\": %m", tmppath)));
 
index 92a3b7954a975115a2731921cd09984aa30fce09..a8a93bca3455b46ac08fc5ebded629b40cc9fcad 100644 (file)
@@ -3230,7 +3230,7 @@ XLogFileCopy(XLogSegNo destsegno, TimeLineID srcTLI, XLogSegNo srcsegno,
    }
 
    if (pg_fsync(fd) != 0)
-       ereport(ERROR,
+       ereport(data_sync_elevel(ERROR),
                (errcode_for_file_access(),
                 errmsg("could not fsync file \"%s\": %m", tmppath)));
 
index 7a06fe086f620096b4813bf9cedc3d5aa49fc3de..29f3d95ab685ba8c18db896896ff2ea5de216cb8 100644 (file)
@@ -1589,6 +1589,9 @@ SnapBuildSerialize(SnapBuild *builder, XLogRecPtr lsn)
     * fsync the file before renaming so that even if we crash after this we
     * have either a fully valid file or nothing.
     *
+    * It's safe to just ERROR on fsync() here because we'll retry the whole
+    * operation including the writes.
+    *
     * TODO: Do the fsync() via checkpoints/restartpoints, doing it here has
     * some noticeable overhead since it's performed synchronously during
     * decoding?
index 6f35105e867b161b9032b54b706255002bbda246..c255583026f5dd506602eb22855d3513fd827cb5 100644 (file)
@@ -131,6 +131,8 @@ int         max_files_per_process = 1000;
  */
 int            max_safe_fds = 32;  /* default if not changed */
 
+/* Whether it is safe to continue running after fsync() fails. */
+bool       data_sync_retry = false;
 
 /* Debugging.... */
 
@@ -424,7 +426,7 @@ pg_flush_data(int fd, off_t offset, off_t amount)
 void
 fsync_fname(const char *fname, bool isdir)
 {
-   fsync_fname_ext(fname, isdir, false, ERROR);
+   fsync_fname_ext(fname, isdir, false, data_sync_elevel(ERROR));
 }
 
 /*
@@ -853,7 +855,8 @@ LruDelete(File file)
     * to leak the FD than to mess up our internal state.
     */
    if (close(vfdP->fd))
-       elog(LOG, "could not close file \"%s\": %m", vfdP->fileName);
+       elog(vfdP->fdstate & FD_TEMPORARY ? LOG : data_sync_elevel(LOG),
+            "could not close file \"%s\": %m", vfdP->fileName);
    vfdP->fd = VFD_CLOSED;
    --nfile;
 
@@ -1332,7 +1335,14 @@ FileClose(File file)
    {
        /* close the file */
        if (close(vfdP->fd))
-           elog(LOG, "could not close file \"%s\": %m", vfdP->fileName);
+       {
+           /*
+            * We may need to panic on failure to close non-temporary files;
+            * see LruDelete.
+            */
+           elog(vfdP->fdstate & FD_TEMPORARY ? LOG : data_sync_elevel(LOG),
+               "could not close file \"%s\": %m", vfdP->fileName);
+       }
 
        --nfile;
        vfdP->fd = VFD_CLOSED;
@@ -2698,6 +2708,9 @@ looks_like_temp_rel_name(const char *name)
  * harmless cases such as read-only files in the data directory, and that's
  * not good either.
  *
+ * Note that if we previously crashed due to a PANIC on fsync(), we'll be
+ * rewriting all changes again during recovery.
+ *
  * Note we assume we're chdir'd into PGDATA to begin with.
  */
 void
@@ -2979,3 +2992,26 @@ fsync_parent_path(const char *fname, int elevel)
 
    return 0;
 }
+
+/*
+ * Return the passed-in error level, or PANIC if data_sync_retry is off.
+ *
+ * Failure to fsync any data file is cause for immediate panic, unless
+ * data_sync_retry is enabled.  Data may have been written to the operating
+ * system and removed from our buffer pool already, and if we are running on
+ * an operating system that forgets dirty data on write-back failure, there
+ * may be only one copy of the data remaining: in the WAL.  A later attempt to
+ * fsync again might falsely report success.  Therefore we must not allow any
+ * further checkpoints to be attempted.  data_sync_retry can in theory be
+ * enabled on systems known not to drop dirty buffered data on write-back
+ * failure (with the likely outcome that checkpoints will continue to fail
+ * until the underlying problem is fixed).
+ *
+ * Any code that reports a failure from fsync() or related functions should
+ * filter the error level with this function.
+ */
+int
+data_sync_elevel(int elevel)
+{
+   return data_sync_retry ? elevel : PANIC;
+}
index fcbe9eac9931df88d4ab67b69eeabb4f1a4dbdb1..f28a3e6d066f97e29e1718f084f6d0326ff5d5ac 100644 (file)
@@ -979,7 +979,7 @@ mdimmedsync(SMgrRelation reln, ForkNumber forknum)
    while (v != NULL)
    {
        if (FileSync(v->mdfd_vfd) < 0)
-           ereport(ERROR,
+           ereport(data_sync_elevel(ERROR),
                    (errcode_for_file_access(),
                     errmsg("could not fsync file \"%s\": %m",
                            FilePathName(v->mdfd_vfd))));
@@ -1222,7 +1222,7 @@ mdsync(void)
                            bms_join(new_requests, requests);
 
                        errno = save_errno;
-                       ereport(ERROR,
+                       ereport(data_sync_elevel(ERROR),
                                (errcode_for_file_access(),
                                 errmsg("could not fsync file \"%s\": %m",
                                        path)));
@@ -1396,7 +1396,7 @@ register_dirty_segment(SMgrRelation reln, ForkNumber forknum, MdfdVec *seg)
                (errmsg("could not forward fsync request because request queue is full")));
 
        if (FileSync(seg->mdfd_vfd) < 0)
-           ereport(ERROR,
+           ereport(data_sync_elevel(ERROR),
                    (errcode_for_file_access(),
                     errmsg("could not fsync file \"%s\": %m",
                            FilePathName(seg->mdfd_vfd))));
index c151b92dfc3d795aaa9455022512a2ba3479d7eb..6d4e179377d1beea44dc8dadcf8ca1c85d14325f 100644 (file)
@@ -792,7 +792,7 @@ write_relmap_file(bool shared, RelMapFile *newmap,
     * CheckPointRelationMap.
     */
    if (pg_fsync(fd) != 0)
-       ereport(ERROR,
+       ereport(data_sync_elevel(ERROR),
                (errcode_for_file_access(),
                 errmsg("could not fsync relation mapping file \"%s\": %m",
                        mapfilename)));
index 03e2c4033b6975baa0fdc10dd3600ee5562c813a..427d807ada1161a7dffd6a0cd3fc5beff51af567 100644 (file)
@@ -1620,6 +1620,15 @@ static struct config_bool ConfigureNamesBool[] =
        NULL, NULL, NULL
    },
 
+   {
+       {"data_sync_retry", PGC_POSTMASTER, ERROR_HANDLING_OPTIONS,
+           gettext_noop("Whether to continue running after a failure to sync data files."),
+       },
+       &data_sync_retry,
+       false,
+       NULL, NULL, NULL
+   },
+
    /* End-of-list marker */
    {
        {NULL, 0, 0, NULL, NULL}, NULL, false, NULL, NULL, NULL
index 0dc9566e0779fcb0dd39defc5c041462ad400476..4b62f2241bceeda819ab9f08da451a50eab8f740 100644 (file)
 
 #exit_on_error = off           # terminate session on any error?
 #restart_after_crash = on      # reinitialize after backend crash?
+#data_sync_retry = off         # retry or panic on failure to fsync data?
 
 
 #------------------------------------------------------------------------------
index c68d9064e782e84e4648815ccdf293c6aad07fb4..6c9215765641d3a5c27a458151df1868cc84c143 100644 (file)
@@ -53,6 +53,7 @@ typedef int File;
 
 /* GUC parameter */
 extern PGDLLIMPORT int max_files_per_process;
+extern PGDLLIMPORT bool data_sync_retry;
 
 /*
  * This is private to fd.c, but exported for save/restore_backend_variables()
@@ -119,6 +120,7 @@ extern void fsync_fname(const char *fname, bool isdir);
 extern int durable_rename(const char *oldfile, const char *newfile, int loglevel);
 extern int durable_link_or_rename(const char *oldfile, const char *newfile, int loglevel);
 extern void SyncDataDirectory(void);
+extern int data_sync_elevel(int elevel);
 
 /* Filename components for OpenTemporaryFile */
 #define PG_TEMP_FILES_DIR "pgsql_tmp"