Python:concurrent异步并行任务编程模块、 线程池、进程池、上下文管理

Python的concurrent包提供了高级的异步并行任务编程接口,包括ThreadPoolExecutor和ProcessPoolExecutor。ThreadPoolExecutor用于线程池,而ProcessPoolExecutor则用于进程池。concurrent模块支持上下文管理,使得使用with语句可以更方便地管理和关闭执行器。总结来说,这个模块简化了多线程和多进程编程,尽管无法直接设置线程名称。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

concurrent包

ThreadPoolExecutor对象

ProcessPoolExecutor对象

支持上线文管理

总结



concurrent包

3.2版本引入的模块。
异步并行任务编程模块,提供一个高级的异步可执行的便利接口。

提供2个池执行器:
ThreadPoolExcentor   异步调用线程池的Executor
ProcessPoolExecutor 异步调用的进程池的Executor

ThreadPoolExecutor对象

首先需要定义一个池的执行器对象,Exector子类对象

方法含义
ThreadPoolExector(max_workers=1)池中至多创建max_workers个线程的池来同时异步执行,返回Executor实例
submit(fn,*args,**kwargs)提交执行的函数及其参数,返回Future实例
shutdown(wait=True)清理池

Future类

方法含义
done()如果调用被成功的取消或者执行完成,返回True
cancelled()如果调用被成功的取消,返回True
running()如果正在运行且不能被取消,返回True
cancel()尝试取消调用,如果已经执行且不能取消返回False,否则返回True
result(timeout=None)取消返回的结果,timeout为None,一直等待返回;timeout设置到期,抛出concurrent.futures.TimeoutError异常
exception(timeout=None)取返回的异常,timeout为None,一直等待返回;timeout设置到期,抛出concurrent.futures.TimeoutError异常
#ThreadPoolExecutor例子
import threading
import logging
import time
from concurrent import futures

#输出定义
FORMAT='%(asctime)-15s\t [%(processName)s:%(threadName)s,%(process)d:%(thread)8d] %(message)s'
logging.basicConfig(level=logging.INFO,format=FORMAT)

def worker(n):
    logging.info("begin to work{}".format(n))
    time.sleep(5)
    logging.info("finished {}".format(n))

#创建线程池,池的容量为3
exect = futures.ThreadPoolExecutor(max_workers=3)
fs = []
for i in range(3):
    future = exect.submit(worker,i)
    fs.append(future)

for i in range(3,6):
    future = exect.submit(worker,i)

while True:
    time.sleep(2)
    logging.info(threading.enumerate())

    flag = True
    for _ in fs:   #判断是否还有任务未完成
        logging.info(_.done())
        flag = flag and _.done()
    print("="*30)

    if flag:
        exect.shutdown()  #清理池,池中线程全部杀掉
        logging.info(threading.enumerate())
        break

#线程池一旦创建了,就不需要在频繁清楚
结果:
2021-06-27 16:06:37,177	 [MainProcess:ThreadPoolExecutor-0_0,20060:    9812] begin to work0
2021-06-27 16:06:37,177	 [MainProcess:ThreadPoolExecutor-0_1,20060:    2816] begin to work1
2021-06-27 16:06:37,177	 [MainProcess:ThreadPoolExecutor-0_2,20060:   13268] begin to work2
2021-06-27 16:06:39,178	 [MainProcess:MainThread,20060:   26076] [<_MainThread(MainThread, started 26076)>, <Thread(ThreadPoolExecutor-0_0, started daemon 9812)>, <Thread(ThreadPoolExecutor-0_1, started daemon 2816)>, <Thread(ThreadPoolExecutor-0_2, started daemon 13268)>]
2021-06-27 16:06:39,178	 [MainProcess:MainThread,20060:   26076] False
2021-06-27 16:06:39,178	 [MainProcess:MainThread,20060:   26076] False
2021-06-27 16:06:39,178	 [MainProcess:MainThread,20060:   26076] False
==============================
==============================
2021-06-27 16:06:41,179	 [MainProcess:MainThread,20060:   26076] [<_MainThread(MainThread, started 26076)>, <Thread(ThreadPoolExecutor-0_0, started daemon 9812)>, <Thread(ThreadPoolExecutor-0_1, started daemon 2816)>, <Thread(ThreadPoolExecutor-0_2, started daemon 13268)>]
2021-06-27 16:06:41,179	 [MainProcess:MainThread,20060:   26076] False
2021-06-27 16:06:41,179	 [MainProcess:MainThread,20060:   26076] False
2021-06-27 16:06:41,179	 [MainProcess:MainThread,20060:   26076] False
2021-06-27 16:06:42,179	 [MainProcess:ThreadPoolExecutor-0_2,20060:   13268] finished 2
2021-06-27 16:06:42,179	 [MainProcess:ThreadPoolExecutor-0_2,20060:   13268] begin to work3
2021-06-27 16:06:42,179	 [MainProcess:ThreadPoolExecutor-0_1,20060:    2816] finished 1
2021-06-27 16:06:42,179	 [MainProcess:ThreadPoolExecutor-0_1,20060:    2816] begin to work4
2021-06-27 16:06:42,179	 [MainProcess:ThreadPoolExecutor-0_0,20060:    9812] finished 0
2021-06-27 16:06:42,179	 [MainProcess:ThreadPoolExecutor-0_0,20060:    9812] begin to work5
2021-06-27 16:06:43,181	 [MainProcess:MainThread,20060:   26076] [<_MainThread(MainThread, started 26076)>, <Thread(ThreadPoolExecutor-0_0, started daemon 9812)>, <Thread(ThreadPoolExecutor-0_1, started daemon 2816)>, <Thread(ThreadPoolExecutor-0_2, started daemon 13268)>]
2021-06-27 16:06:43,181	 [MainProcess:MainThread,20060:   26076] True
2021-06-27 16:06:43,181	 [MainProcess:MainThread,20060:   26076] True
2021-06-27 16:06:43,181	 [MainProcess:MainThread,20060:   26076] True
==============================
2021-06-27 16:06:47,180	 [MainProcess:ThreadPoolExecutor-0_0,20060:    9812] finished 5
2021-06-27 16:06:47,180	 [MainProcess:ThreadPoolExecutor-0_2,20060:   13268] finished 3
2021-06-27 16:06:47,180	 [MainProcess:ThreadPoolExecutor-0_1,20060:    2816] finished 4
2021-06-27 16:06:47,180	 [MainProcess:MainThread,20060:   26076] [<_MainThread(MainThread, started 26076)>]

ProcessPoolExecutor对象

方法一样,就是是哦那个多进程
 

#ThreadPoolExecutor例子
import threading
import logging
import time
from concurrent import futures

#输出定义
FORMAT='%(asctime)-15s\t [%(processName)s:%(threadName)s,%(process)d:%(thread)8d] %(message)s'
logging.basicConfig(level=logging.INFO,format=FORMAT)

def worker(n):
    logging.info("begin to work{}".format(n))
    time.sleep(5)
    logging.info("finished {}".format(n))
if __name__ == '__main__':
    #创建线程池,池的容量为3
    exect = futures.ProcessPoolExecutor(max_workers=3)
    fs = []
    for i in range(3):
        future = exect.submit(worker,i)
        fs.append(future)

    for i in range(3,6):
        future = exect.submit(worker,i)

    while True:
        time.sleep(2)
        logging.info(threading.enumerate())     #多进程时看主线程已经没有必要了

        flag = True
        for _ in fs:   #判断是否还有任务未完成
            logging.info(_.done())
            flag = flag and _.done()
        print("="*30)

        if flag:
            exect.shutdown()  #清理池,池中线程全部杀掉
            logging.info(threading.enumerate())  #多进程时看主线程已经没有必要了
            break

    #线程池一旦创建了,就不需要在频繁清楚
结果:
2021-06-27 16:11:18,415	 [SpawnProcess-1:MainThread,25872:   25960] begin to work0
2021-06-27 16:11:18,421	 [SpawnProcess-2:MainThread,22072:   29224] begin to work1
2021-06-27 16:11:18,428	 [SpawnProcess-3:MainThread,18108:   20136] begin to work2
==============================
2021-06-27 16:11:20,345	 [MainProcess:MainThread,23556:   11200] [<_MainThread(MainThread, started 11200)>, <Thread(QueueManagerThread, started daemon 6588)>, <Thread(QueueFeederThread, started daemon 12680)>]
2021-06-27 16:11:20,345	 [MainProcess:MainThread,23556:   11200] False
2021-06-27 16:11:20,345	 [MainProcess:MainThread,23556:   11200] False
2021-06-27 16:11:20,345	 [MainProcess:MainThread,23556:   11200] False
2021-06-27 16:11:22,346	 [MainProcess:MainThread,23556:   11200] [<_MainThread(MainThread, started 11200)>, <Thread(QueueManagerThread, started daemon 6588)>, <Thread(QueueFeederThread, started daemon 12680)>]
2021-06-27 16:11:22,346	 [MainProcess:MainThread,23556:   11200] False
2021-06-27 16:11:22,346	 [MainProcess:MainThread,23556:   11200] False
2021-06-27 16:11:22,346	 [MainProcess:MainThread,23556:   11200] False
==============================
2021-06-27 16:11:23,417	 [SpawnProcess-1:MainThread,25872:   25960] finished 0
2021-06-27 16:11:23,417	 [SpawnProcess-1:MainThread,25872:   25960] begin to work3
2021-06-27 16:11:23,422	 [SpawnProcess-2:MainThread,22072:   29224] finished 1
2021-06-27 16:11:23,422	 [SpawnProcess-2:MainThread,22072:   29224] begin to work4
2021-06-27 16:11:23,430	 [SpawnProcess-3:MainThread,18108:   20136] finished 2
2021-06-27 16:11:23,430	 [SpawnProcess-3:MainThread,18108:   20136] begin to work5
2021-06-27 16:11:24,347	 [MainProcess:MainThread,23556:   11200] [<_MainThread(MainThread, started 11200)>, <Thread(QueueManagerThread, started daemon 6588)>, <Thread(QueueFeederThread, started daemon 12680)>]
2021-06-27 16:11:24,347	 [MainProcess:MainThread,23556:   11200] True
2021-06-27 16:11:24,347	 [MainProcess:MainThread,23556:   11200] True
2021-06-27 16:11:24,347	 [MainProcess:MainThread,23556:   11200] True
==============================
2021-06-27 16:11:28,419	 [SpawnProcess-1:MainThread,25872:   25960] finished 3
2021-06-27 16:11:28,423	 [SpawnProcess-2:MainThread,22072:   29224] finished 4
2021-06-27 16:11:28,431	 [SpawnProcess-3:MainThread,18108:   20136] finished 5
2021-06-27 16:11:28,441	 [MainProcess:MainThread,23556:   11200] [<_MainThread(MainThread, started 11200)>]

支持上线文管理

concurrent.futures.ProcessPoolExecutor继承自concurent.futures.base.Execurot,而父类有__enter__、__exit__方法,支持上下文管理。可以使用with语句

__exit__方法本质还是调用的shutdown(wait=True),就是一直阻塞到所有运行的任务完成

使用方法

import threading
from concurrent import futures

with futures.ProcessPoolExecutor(max_workers=3) as executor:
    future = executor.submit(work,232,1235)
    print(future.result())

使用上下文改造上面的例子,增加返回计算的结果
 

#ThreadPoolExecutor例子
import threading
import logging
import time
from concurrent import futures

#输出定义
FORMAT='%(asctime)-15s\t [%(processName)s:%(threadName)s,%(process)d:%(thread)8d] %(message)s'
logging.basicConfig(level=logging.INFO,format=FORMAT)

def worker(n):
    logging.info("begin to work{}".format(n))
    time.sleep(5)
    logging.info("finished {}".format(n))
    return n + 100

if __name__ == '__main__':
    #创建线程池,池的容量为3
    exect = futures.ProcessPoolExecutor(max_workers=3)
    with exect:#上下文
        fs = []
        for i in range(3):
            future = exect.submit(worker,i)
            fs.append(future)

        for i in range(3,6):
            future = exect.submit(worker,i)

        while True:
            time.sleep(2)
            logging.info(threading.enumerate())     #多进程时看主线程已经没有必要了

            flag = True
            for _ in fs:   #判断是否还有任务未完成
                logging.info(_.done())
                flag = flag and _.done()
                if _.done():  #做完了,看下结果
                    logging.info("result = {}".format(_.result()))
            print("="*30)

            if flag:break
    # exect.shutdown()  #清理池,池中线程全部杀掉
    logging.info(threading.enumerate())  #多进程时看主线程已经没有必要了
                    

    #线程池一旦创建了,就不需要在频繁清楚
结果:
2021-06-27 16:28:04,265	 [SpawnProcess-1:MainThread,28816:   14260] begin to work0
2021-06-27 16:28:04,271	 [SpawnProcess-2:MainThread,28308:    9024] begin to work1
2021-06-27 16:28:04,277	 [SpawnProcess-3:MainThread,20960:    6168] begin to work2
2021-06-27 16:28:06,192	 [MainProcess:MainThread,1592:    8024] [<_MainThread(MainThread, started 8024)>, <Thread(QueueManagerThread, started daemon 26972)>, <Thread(QueueFeederThread, started daemon 16680)>]
2021-06-27 16:28:06,192	 [MainProcess:MainThread,1592:    8024] False
2021-06-27 16:28:06,192	 [MainProcess:MainThread,1592:    8024] False
2021-06-27 16:28:06,192	 [MainProcess:MainThread,1592:    8024] False
==============================
2021-06-27 16:28:08,194	 [MainProcess:MainThread,1592:    8024] [<_MainThread(MainThread, started 8024)>, <Thread(QueueManagerThread, started daemon 26972)>, <Thread(QueueFeederThread, started daemon 16680)>]
2021-06-27 16:28:08,194	 [MainProcess:MainThread,1592:    8024] False
2021-06-27 16:28:08,194	 [MainProcess:MainThread,1592:    8024] False
2021-06-27 16:28:08,194	 [MainProcess:MainThread,1592:    8024] False
==============================
2021-06-27 16:28:09,266	 [SpawnProcess-1:MainThread,28816:   14260] finished 0
2021-06-27 16:28:09,266	 [SpawnProcess-1:MainThread,28816:   14260] begin to work3
2021-06-27 16:28:09,272	 [SpawnProcess-2:MainThread,28308:    9024] finished 1
2021-06-27 16:28:09,272	 [SpawnProcess-2:MainThread,28308:    9024] begin to work4
2021-06-27 16:28:09,278	 [SpawnProcess-3:MainThread,20960:    6168] finished 2
2021-06-27 16:28:09,278	 [SpawnProcess-3:MainThread,20960:    6168] begin to work5
2021-06-27 16:28:10,196	 [MainProcess:MainThread,1592:    8024] [<_MainThread(MainThread, started 8024)>, <Thread(QueueManagerThread, started daemon 26972)>, <Thread(QueueFeederThread, started daemon 16680)>]
2021-06-27 16:28:10,196	 [MainProcess:MainThread,1592:    8024] True
2021-06-27 16:28:10,196	 [MainProcess:MainThread,1592:    8024] result = 100
2021-06-27 16:28:10,196	 [MainProcess:MainThread,1592:    8024] True
2021-06-27 16:28:10,196	 [MainProcess:MainThread,1592:    8024] result = 101
2021-06-27 16:28:10,196	 [MainProcess:MainThread,1592:    8024] True
2021-06-27 16:28:10,196	 [MainProcess:MainThread,1592:    8024] result = 102
==============================
2021-06-27 16:28:14,267	 [SpawnProcess-1:MainThread,28816:   14260] finished 3
2021-06-27 16:28:14,273	 [SpawnProcess-2:MainThread,28308:    9024] finished 4
2021-06-27 16:28:14,279	 [SpawnProcess-3:MainThread,20960:    6168] finished 5
2021-06-27 16:28:14,288	 [MainProcess:MainThread,1592:    8024] [<_MainThread(MainThread, started 8024)>]

总结

改库统一线程池、进程池调用,简化了编程;是Python简单的思想哲学的体现;唯一的缺点:无法设置线程名称,但这都是不值一提的

<think>嗯,用户问的是Python多进程可以用哪些方式进行进程池管理。首先,我需要回忆一下Python多进程模块的相关知识。Python的标准库中有multiprocessing模块,这个模块提供了Process和Pool等类来实现多进程编程进程池管理主要是用Pool类,但可能还有其他方式或者第三方库吗? 用户可能想知道有哪些具体的方法或工具可以用来管理进程池,比如内置的模块、第三方库或者某些高级用法。我需要列举几种常见的方式,并简要说明它们的用法和特点。比如multiprocessing.Pool是最基本的,然后是concurrent.futures中的ProcessPoolExecutor,可能还有其他的比如使用队列(Queue)来手动管理进程,或者第三方库如joblib、celery等。 接下来,我需要考虑用户的使用场景。他们可能是在处理需要并行执行的任务,比如数据处理、批量计算等,想要提高效率。用户可能对Python多进程有一定了解,但想更系统地了解不同的进程池管理方法,或者在选择合适的工具时需要指导。因此,回答需要结构清晰,分点说明每种方法,并比较它们的优缺点,帮助用户根据具体需求选择。 还要注意用户可能关心易用性、性能、功能扩展性等方面。例如,multiprocessing.Pool提供了比较基础的功能,而concurrent.futures可能接口更现代化,joblib则可能在科学计算中更常用,尤其是与numpy等库结合时。此外,可能需要提到异步处理或者分布式任务队列如Celery,但需要明确这些是否属于进程池管理的范畴,或者是否更适合分布式环境。 另外,要确保回答的准确性和实用性。比如,multiprocessing.Pool的apply、apply_async、map、map_async等方法的具体使用场景,以及如何控制进程数量、处理异常等。而ProcessPoolExecutor作为更高层次的抽象,可能更简洁,适合与future对象配合使用。还要提到一些注意事项,比如在Windows系统下多进程可能需要if __name__ == '__main__'的保护,避免无限递归创建子进程。 有没有可能用户的需求不仅仅是进程池管理,还包括进程间通信、数据共享等问题?但根据问题,用户明确询问的是进程池管理方式,所以可能不需要深入这部分,但可以简要提及相关机制,如队列、管道等,但重点还是放在池的管理上。 总结下来,回答的结构应该是先介绍主要的进程池管理方法,包括标准库中的工具和第三方库,然后分别详细说明每种方法的用法、示例代码和适用场景,最后进行比较和总结,帮助用户选择合适的方法。同时,需要确保语言通俗易懂,避免过于技术化的术语,但又要准确无误。</think>--- ### **Python多进程进程池管理方式** 在Python中,多进程进程池管理主要通过以下方式实现,每种方法适用于不同场景,具体选择需结合需求(如任务类型、性能要求、代码简洁性等): --- #### **一、`multiprocessing.Pool`(标准库)** 最基础的进程池管理工具,提供灵活的任务分配方式。 ##### **1. 核心方法** - **`map(func, iterable)`**:并行处理可迭代对象,阻塞直到所有任务完成。 - **`map_async(func, iterable)`**:异步版本,返回`AsyncResult`对象,可通过`get()`获取结果。 - **`apply(func, args)`**:提交单个任务,阻塞等待结果。 - **`apply_async(func, args)`**:异步提交单个任务,返回`AsyncResult`。 - **`close()` + `join()`**:关闭进程池并等待所有任务完成。 ##### **2. 示例代码** ```python from multiprocessing import Pool def square(x): return x ** 2 if __name__ == '__main__': with Pool(processes=4) as pool: # 创建4个进程的池 results = pool.map(square, [1, 2, 3, 4]) # 同步映射 print(results) # 输出 [1, 4, 9, 16] async_result = pool.apply_async(square, (5,)) # 异步提交单个任务 print(async_result.get()) # 输出 25 ``` ##### **3. 适用场景** - 批量处理数据(如并行计算、文件读写)。 - 需要精细控制任务提交和结果获取的场合。 --- #### **二、`concurrent.futures.ProcessPoolExecutor`(标准库)** 基于`Future`对象的高层接口,代码更简洁,适合现代异步编程模式。 ##### **1. 核心方法** - **`submit(func, *args)`**:提交单个任务,返回`Future`对象。 - **`map(func, iterable)`**:直接映射任务并获取结果迭代器。 - **`shutdown()`**:自动管理资源释放(建议使用`with`语句)。 ##### **2. 示例代码** ```python from concurrent.futures import ProcessPoolExecutor def cube(x): return x ** 3 if __name__ == '__main__': with ProcessPoolExecutor(max_workers=3) as executor: # 最大3个进程 # 提交单个任务 future = executor.submit(cube, 3) print(future.result()) # 输出 27 # 批量映射任务 results = executor.map(cube, [1, 2, 3]) print(list(results)) # 输出 [1, 8, 27] ``` ##### **3. 适用场景** - 需要与线程池(`ThreadPoolExecutor`)统一编程接口。 - 结合`asyncio`实现异步IO与多进程混合任务。 --- #### **三、第三方库:`joblib`** 简化科学计算中的并行任务,尤其适合与`numpy`、`pandas`结合使用。 ##### **1. 核心功能** - **`Parallel(n_jobs=N)`**:创建并行上下文。 - **`delayed(func)(args)`**:延迟函数执行,便于批量提交。 ##### **2. 示例代码** ```python from joblib import Parallel, delayed def multiply(a, b): return a * b if __name__ == '__main__': # 使用4个进程并行计算 results = Parallel(n_jobs=4)(delayed(multiply)(i, i+1) for i in range(5)) print(results) # 输出 [0, 2, 6, 12, 20] ``` ##### **3. 适用场景** - 机器学习模型训练、超参数搜索(如`scikit-learn`中的`GridSearchCV`)。 - 需要快速实现并行化的数值计算任务。 --- #### **四、手动管理进程与队列** 通过`multiprocessing.Queue`或`Manager`实现更灵活的控制,适合复杂任务分发。 ##### **1. 核心组件** - **`Process`**:创建单个进程。 - **`Queue`**:进程间安全传递数据。 - **`Manager`**:支持跨进程共享数据结构(如列表、字典)。 ##### **2. 示例代码** ```python from multiprocessing import Process, Queue def worker(q): while True: task = q.get() if task is None: # 终止信号 break print(f"Processing: {task}") if __name__ == '__main__': tasks = [1, 2, 3, None, None] # None表示结束信号 q = Queue() processes = [Process(target=worker, args=(q,)) for _ in range(2)] for p in processes: p.start() for task in tasks: q.put(task) for p in processes: p.join() ``` ##### **3. 适用场景** - 需要动态分配任务或复杂通信逻辑(如生产者-消费者模型)。 - 对进程生命周期有特殊要求的场景。 --- #### **五、分布式进程池(如`Celery`、`Dask`)** 适用于跨多机分布式计算,突破单机资源限制。 ##### **1. `Celery`** - **特点**:基于消息队列(如RabbitMQ、Redis),支持定时任务、重试机制。 - **场景**:Web后台任务、分布式作业调度。 ##### **2. `Dask`** - **特点**:模仿`PyData`栈(如并行化的`numpy`、`pandas`),支持动态任务图。 - **场景**:大规模数据分析、集群环境下的并行计算。 --- #### **六、对比与选型建议** | **方式** | **优势** | **劣势** | **适用场景** | |---------------------------|-----------------------------------|-------------------------------|---------------------------| | `multiprocessing.Pool` | 灵活控制任务提交与结果获取 | 代码相对冗长 | 精细控制的小规模任务 | | `ProcessPoolExecutor` | 接口简洁,与线程池统一 | 功能较基础 | 快速实现异步任务 | | `joblib` | 科学计算友好,易集成 | 依赖第三方库 | 机器学习、数值计算 | | 手动管理进程与队列 | 完全自定义任务分发逻辑 | 复杂度高,易出错 | 复杂通信需求的场景 | | 分布式框架(如`Dask`) | 支持多机扩展,处理海量数据 | 部署和维护成本高 | 大规模分布式计算 | --- #### **七、注意事项** 1. **全局变量与序列化**: - 跨进程传递的函数参数需可序列化(如避免传递lambda函数)。 2. **资源释放**: - 使用`with`语句或显式调用`close()` + `join()`防止僵尸进程。 3. **Windows系统限制**: - 多进程代码需放在`if __name__ == '__main__':`中,避免递归创建子进程。 4. **性能权衡**: - 进程创建和通信有开销,任务粒度太小时可能不如单进程快。 --- 通过上述方法,可根据具体需求选择最合适的进程池管理策略,兼顾开发效率与性能优化。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值