Thread.join()不好用的解决方法

本文通过一个具体的Java示例探讨了线程中join方法的行为,并揭示了一个常见的误解:即join方法不一定总是确保主线程等待子线程完成。文章进一步解释了在特定条件下观察到的异常行为,并给出了合理的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Thread中有一个public final void join () 方法是让当前线程去等待调用这个join方法的那个线程的结束。

 

看下面一个例子
public class TestThreadException {

    /**
     * @param args
     */
    public static void main(String[] args) {
        Thread thread = new Thread(new Runnable() {

            @Override
            public void run() {
                System.out.println("New thread is working");
                try {
                    Thread.sleep(3000);
                } catch (InterruptedException e) {
                    // TODO Auto-generated catch block
                    e.printStackTrace();
                }
                throw new RuntimeException(" Excpetion occurs in brach thread");
            }
           
        });
       
        thread.start();
       
        try {
            thread.join();
        } catch (InterruptedException e1) {
            // TODO Auto-generated catch block
            e1.printStackTrace();
        }
       
        while (true) {
            System.out.println("Main thread is working");
            try {
                Thread.sleep(1000);
            } catch (InterruptedException e) {
                // TODO Auto-generated catch block
                e.printStackTrace();
            }
        }

    }

}

 

但是最近有个UT测试的时候发现,假设A线程调用B线程的join方法,但是它根本不等待B线程结束就直接执行下面的程序了。

还有一件奇怪的事是Debug时却会等待。

 

最后的猜测是在执行join()这个线程时,B线程还没完全初始化好,所以A线程调用它的join方法就直接返回了。

如果在执行前调用Thread.sleep(100), 让A线程稍微等一下, 那程序就正常等待了。

 

 

----------------------------------------------------------------------------------------------------------------------------------------------

<<后续>>

刚刚仔细研究了一下,其实并不是Thread.join的问题。是因为这个Thread结束后又启动了第三个Thread.
第三个Thread会修改一些变量的值. 而我们的测试用例会测试这些变量。

因为join结束后,第三个线程还没有开始运行,所以测试会失败。表面上看起来好像是join方法的问题。

解决方案是在join方法后加Thread.sleep(100),而不是在之前加!

非常抱歉,我之前提供的代码存在错误。在 PyTorch 中,并没有直接提供离散余弦变换(DCT)的函数。对于 DCT 的实现,你可以使用 `torch.rfft` 函数结合 DCT 系数矩阵来进行计算。 下面是一个修正后的示例代码: ```python import torch import torch.nn as nn import torch.optim as optim # 定义离散余弦变换(DCT)系数矩阵 dct_matrix = torch.zeros(256, 256) for i in range(256): for j in range(256): dct_matrix[i, j] = torch.cos((2 * i + 1) * j * 3.14159 / (2 * 256)) # 定义 OMP 算法 def omp(A, y, k): m, n = A.shape x = torch.zeros(n, 1) residual = y.clone() support = [] for _ in range(k): projections = torch.abs(A.t().matmul(residual)) index = torch.argmax(projections) support.append(index) AtA_inv = torch.linalg.inv(A[:, support].t().matmul(A[:, support])) x_new = AtA_inv.matmul(A[:, support].t()).matmul(y) residual = y - A[:, support].matmul(x_new) x[support] = x_new return x # 加载原始图像 image = torch.randn(256, 256) # 压缩感知成像 measurement_matrix = torch.fft.fft(torch.eye(256), dim=0).real compressed = measurement_matrix.matmul(image.flatten().unsqueeze(1)) # 使用 OMP 进行重构 reconstructed = omp(dct_matrix, compressed, k=100) # 计算重构误差 mse = nn.MSELoss() reconstruction_error = mse(image, reconstructed.reshape(image.shape)) print("重构误差:", reconstruction_error.item()) ``` 在这个示例中,我们手动定义了 DCT 系数矩阵 `dct_matrix`,然后使用 `torch.fft.fft` 函数计算测量矩阵,并进行实部提取。接下来的步骤与之前的示例相同。 请注意,这只是一个示例,用于演示如何使用自定义的 DCT 系数矩阵进行压缩感知成像。在实际应用中,你可能需要根据具体的需求进行调整和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值