POJ 3264 Balanced Lineup

 
给你一个长度为n的序列a[N] (1 ≤ N ≤ 50000),询问Q(1 ≤ Q ≤ 200000) 次,每次输出【L, R】区间最大值与最小值的差是多少。
so easy~
so easy~
so easy~
Input
多组用例
第一行是两个整数 N,Q
然后是N个数a[i] 保证a[i] 都小于1e9
然后是Q个询问 每次给你L,R 保证(1<=L<=R<= N)
Output
输出每次询问【L, R】区间最大值与最小值的差是多少
Sample Input
6 3
1
7
3
4
2
5
1 5
4 6
2 2
Sample Output
6
3
0

好吧,都说了,so easy。

对于极值问题,如果不是动态的(没有后续更新),最好用RMQ。写线段树还是有点繁琐的,因为对于极值问题,RMQ和线段树的复杂度都差不多。当然专攻线段树也行,接下来用两种写法来完成,区间极值的操作。

//RMQ   3500ms
#include <math.h>
#include <stdio.h>
#define Max(x,y) ((x)>(y)?(x):(y))
#define Min(x,y) ((x)<(y)?(x):(y))
using namespace std;
const int maxn = 5*1e4+5;
int maxnum[maxn][22];
int minnum[maxn][22];
void RMQ(int n) {
	for(int j = 1; j < 21; j++) {
		for(int i = 1; i <= n; i++) {
			if(i+(1<<j)-1 <= n) {
				maxnum[i][j] = Max(maxnum[i][j-1], maxnum[i+(1<<(j-1))][j-1]);
				minnum[i][j] = Min(minnum[i][j-1], minnum[i+(1<<(j-1))][j-1]);
			}
		}
	}
}
int main() {
	int N, Q;
	int l, r;
	scanf("%d %d", &N, &Q);
	for(int i = 1; i <= N; i++) {
		scanf("%d", &maxnum[i][0]);
		minnum[i][0] = maxnum[i][0];
	}
	RMQ(N);
	while(Q--) {
		scanf("%d %d", &l, &r);
		int k = (int)(log(r-l+1.0)/log(2.0));
		int mx = Max(maxnum[l][k], maxnum[r-(1<<k)+1][k]);
		int mn = Min(minnum[l][k], minnum[r-(1<<k)+1][k]);
		printf("%d\n", mx-mn);
	}
	return 0;
}

//线段树 3485ms 
#include <stdio.h>
#define Max(x, y) ((x)>(y)?(x):(y))
#define Min(x, y) ((x)<(y)?(x):(y))
#define inf 0x3f3f3f3f
const int maxn = 5*1e5+5;
struct Node {
	int l, r;
	int mx, mn;
}node[maxn<<2];
void Build(int i, int l, int r) {
	node[i].l = l;
	node[i].r = r;
	if(l == r) {
		scanf("%d", &node[i].mx);
		node[i].mn = node[i].mx;
		return ;
	}
	int m = (l+r)/2;
	Build(i<<1, l, m);
	Build(i<<1|1, m+1, r);
	node[i].mn = Min(node[i<<1].mn, node[i<<1|1].mn);
	node[i].mx = Max(node[i<<1].mx, node[i<<1|1].mx);
	return ;
}

int mn = inf, mx = -inf;
void Query(int i, int l, int r) {
	if(node[i].l == l && node[i].r == r) {
		mn = Min(mn, node[i].mn);
		mx = Max(mx, node[i].mx);
		return ;
	}
	i = i<<1;
	if(l <= node[i].r) {
		if(r <= node[i].r)
			Query(i, l, r);
		else
			Query(i, l, node[i].r);
	}
	i++;
	if(r >= node[i].l) {
		if(l >= node[i].l)
			Query(i, l, r);
		else
			Query(i, node[i].l, r);
	}
}
int main() {
	int N, M;
	int l, r;
	scanf("%d %d", &N, &M);
	Build(1, 1, N);
	while(M--) {
		scanf("%d %d", &l, &r);
		mn = inf;
		mx = -inf;
		Query(1, l, r);
		printf("%d\n", mx-mn);
	}
	return 0;
}

在当今计算机视觉领域,深度学习模型在图像分割任务中发挥着关键作用,其中 UNet 是一种在医学影像分析、遥感图像处理等领域广泛应用的经典架构。然而,面对复杂结构和多尺度特征的图像,UNet 的性能存在局限性。因此,Nested UNet(也称 UNet++)应运而生,它通过改进 UNet 的结构,增强了特征融合能力,提升了复杂图像的分割效果。 UNet 是 Ronneberger 等人在 2015 年提出的一种卷积神经网络,主要用于生物医学图像分割。它采用对称的编码器 - 解码器结构,编码器负责提取图像特征,解码器则将特征映射回原始空间,生成像素级预测结果。其跳跃连接设计能够有效传递低层的细节信息,从而提高分割精度。 尽管 UNet 在许多场景中表现出色,但在处理复杂结构和多尺度特征的图像时,性能会有所下降。Nested UNet 通过引入更深层的特征融合来解决这一问题。它在不同尺度上建立了密集的连接路径,增强了特征的传递融合。这种“嵌套”结构不仅保持了较高分辨率,还增加了特征学习的深度,使模型能够更好地捕获不同层的特征,从而显著提升了复杂结构的分割效果。 模型结构:在 PyTorch 中,可以使用 nn.Module 构建 Nested UNet 的网络结构。编码器部分包含多个卷积层和池化层,并通过跳跃连接传递信息;解码器部分则包含上采样层和卷积层,并编码器的跳跃连接融合。每个阶段的连接路径需要精心设计,以确保不同尺度信息的有效融合。 编码器 - 解码器连接:Nested UNet 的核心在于多层的连接。通过在解码器中引入“skip connection blocks”,将编码器的输出解码器的输入相结合,形成一个密集的连接网络,从而实现特征的深度融合。 训练优化:训练 Nested UNet 时,需要选择合适的损失函数和优化器。对于图像分割任务,常用的损失
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值