- 博客(1141)
- 收藏
- 关注
原创 大模型微调算法全解析:技术、应用与实践指南
大模型微调算法丰富多样,从传统的全参数微调到新兴的参数高效方法、基于提示与指令的微调以及 RLHF,每种算法都有其独特的适用场景和优劣势。在实际应用中,应根据任务特点(如数据量、标注成本、计算资源、任务复杂度等)综合考虑选择合适的微调策略,甚至可以结合多种方法,例如先进行参数高效的初步微调,再辅以少量 RLHF 优化关键指标,从而在保证模型性能的同时最大化利用资源。
2025-05-12 00:06:26
175
原创 MCP深度解析:多云平台的架构与实践
在本文中,我们深入探讨了MCP的技术架构、应用场景、代码示例以及注意事项等方面。通过这些内容,我们希望读者能够对MCP有一个全面的了解,并能够将其应用到实际的业务场景中。
2025-05-12 00:06:05
267
原创 深度解析MCP:架构、应用与实践
MCP(Multi-Cloud Platform,多云平台)已成为现代企业 IT 架构的关键策略。本文深入探讨了 MCP 的技术架构、应用场景、代码实现及潜在挑战,结合绘图工具展示架构图与流程图,并提供详细代码示例与注意事项,旨在为技术开发人员、架构师和企业提供全面的 MCP 实践指南。MCP 是一种整合多个云服务提供商资源的综合性平台,它允许企业将不同云服务无缝集成到统一架构中。核心价值在于资源编排、负载均衡和故障转移,打破云服务提供商壁垒,实现灵活扩展与高效利用。
2025-05-12 00:05:59
423
原创 从零构建 Agent:开启智能应用之旅
在人工智能与自动化蓬勃发展当下,Agent 作为能自主感知环境并采取行动以达成目标的实体,于众多领域有着广泛应用。本文将带你从构建简易小 Agent 开启探索之旅,深入剖析 Agent 相关概念、原理,经由详细代码示例、架构图、流程图等辅助讲解,使其在诸如智能客服、数据采集、工业自动化控制等场景落地,助你掌握 Agent 构建关键要点,为投身智能应用开发筑牢根基。经本文深入探究,你已掌握构建简易 Agent 的全套流程。
2025-05-11 17:25:49
705
原创 微服务架构深度解析:从概念到实践
随着互联网行业的飞速发展,软件系统的规模和复杂度不断增加,传统的单体式架构逐渐难以满足现代应用的高可用性、可扩展性等需求,微服务架构应运而生。本文深入全面地剖析微服务架构,涵盖其概念、核心特点、典型应用场景、实际开发中的注意事项以及未来趋势等多个方面。通过详细的代码示例和精心绘制的架构图、流程图等,旨在帮助读者全面理解微服务架构并掌握其实践应用方法,为构建高效、灵活的分布式系统提供有力支持。
2025-05-11 17:15:19
500
原创 Agent:智能代理的深度剖析
在当今数字化时代,Agent(智能代理)作为一种能够自主感知环境并采取行动以实现目标的软件或硬件实体,已经广泛应用于众多领域。从简单的自动化任务到复杂的智能决策支持,Agent 展现出独特的优势和局限性。本文将全面深入地探讨 Agent 的概念、分类、工作原理,列举其在不同领域的应用场景,剖析其优缺点,并通过代码示例加以说明,同时对 Agent 的未来发展趋势进行展望,旨在为读者呈现一个全面、立体的 Agent 世界。Agent,即智能代理,是一种能够在其环境中自主地感知、推理、决策并行动的实体。
2025-05-11 17:09:46
510
原创 Transformer 大模型实战:从入门到精通
Transformer 大模型作为人工智能领域的核心技术之一,凭借其卓越的性能和广泛的应用前景,正在深刻改变各个行业的发展格局。从自然语言处理到计算机视觉,从代码智能开发到智能客服,Transformer 大模型展现出强大的通用性和适应性,为解决实际业务问题和推动技术创新提供了有力支持。然而,在部署和应用 Transformer 大模型过程中,也面临着诸多挑战,如计算资源需求高、数据依赖性强、模型可解释性差等。
2025-05-11 17:05:06
429
原创 Transformer 部署大模型:深度剖析与实践指南
大模型通常指参数量庞大(如数十亿甚至千亿以上)、在大规模数据上训练的深度学习模型。强大的特征提取与生成能力:海量参数使其能捕捉复杂的数据模式,生成高质量文本、代码等多种内容。广泛的适用性:经过预训练后,通过简单微调或提示工程,即可快速适配多种下游任务,如文本分类、问答系统、文本摘要等。Transformer 部署大模型犹如一把双刃剑,在为众多领域带来性能突破与应用创新的同时,也伴随着资源消耗、数据依赖、可解释性等挑战。
2025-05-11 16:59:52
505
原创 Transformer 大模型在自然语言处理中的应用与实践
Transformer 大模型在自然语言处理领域引发了深刻变革,其强大的序列建模能力和预训练 - 微调范式为解决各种复杂的 NLP 任务提供了有效的工具。本文系统地介绍了 Transformer 大模型在文本生成、机器翻译、情感分析、问答系统等 NLP 任务中的进阶应用方法和实战技巧,结合代码示例和实际案例分析,为读者展示了如何在实际项目中应用这些技术。同时,强调了在模型选择、持续学习、伦理隐私等方面的注意事项,展望了 Transformer 大模型在 NLP 领域的未来发展方向。
2025-05-11 16:53:50
603
原创 Transformer 大模型在自然语言处理中的进阶应用与实战
Transformer 大模型在自然语言处理领域引发了深刻变革,其强大的序列建模能力和预训练 - 微调范式为解决各种复杂的 NLP 任务提供了有效的工具。本文系统地介绍了 Transformer 大模型在文本生成、机器翻译、情感分析、问答系统等 NLP 任务中的进阶应用方法和实战技巧,结合代码示例和实际案例分析,为读者展示了如何在实际项目中应用这些技术。同时,强调了在模型选择、持续学习、伦理隐私等方面的注意事项,展望了 Transformer 大模型在 NLP 领域的未来发展方向。
2025-05-11 16:51:48
511
原创 Transformer 大模型在自然语言处理中的进阶应用与实战
Transformer 大模型在自然语言处理领域引发了深刻变革,其强大的序列建模能力和预训练 - 微调范式为解决各种复杂的 NLP 任务提供了有效的工具。本文系统地介绍了 Transformer 大模型在文本生成、机器翻译、情感分析、问答系统等 NLP 任务中的进阶应用方法和实战技巧,结合代码示例和实际案例分析,为读者展示了如何在实际项目中应用这些技术。同时,强调了在模型选择、持续学习、伦理隐私等方面的注意事项,展望了 Transformer 大模型在 NLP 领域的未来发展方向。
2025-05-11 16:48:22
476
原创 Transformer 大模型在智能推荐系统中的深度应用与实践
Transformer 大模型为智能推荐系统带来了前所未有的机遇,其卓越的序列建模能力和多模态融合能力使得推荐系统能够更精准地捕捉用户兴趣、提供个性化推荐内容。本文从理论基础到实际代码实现,全面深入地探讨了 Transformer 在智能推荐系统中的应用方法和实践技巧,并详细分析了在实际业务场景中可能遇到的冷启动、模型训练评估、部署监控等挑战和相应的解决方案。
2025-05-11 16:45:39
462
原创 Transformer 大模型在多模态 AI 中的创新应用与实践
Transformer 架构在多模态 AI 领域展现出了巨大的潜力和价值,通过融合文本、图像、语音等多种模态的数据,实现了更强大的智能应用。本文系统地讲解了 Transformer 多模态模型的基础架构、关键技术、代码实现以及应用场景,从理论到实践为读者提供了一套较为完整的知识体系。同时,分析了在多模态模型开发和应用中需要注意的数据处理难点、模型优化策略以及伦理隐私问题等,为开发者和研究人员提供了有益的参考和指导。
2025-05-11 16:40:27
254
原创 Transformer 大模型安全与伦理:构建可信 AI 系统
Transformer 大模型的训练通常依赖大量的数据,这些数据可能包含个人敏感信息、企业的商业机密等。在数据收集、存储、传输和处理过程中,若安全措施不当,极易导致数据隐私泄露。例如,模型的输入输出数据可能被恶意窃取,或者模型参数本身可能隐含了训练数据中的隐私信息,通过一定的攻击手段(如模型反转攻击)可将其提取出来,给个人和企业带来严重的损失。Transformer 大模型作为人工智能领域的核心技术之一,在带来巨大技术突破和应用价值的同时,也引发了诸多安全与伦理挑战。
2025-05-11 16:34:55
536
原创 Transformer 大模型的优化与性能提升策略全解析
Transformer 大模型作为当今人工智能领域的核心技术之一,在众多领域展现出了巨大的应用潜力。然而,其部署和应用面临着诸多挑战,尤其是模型庞大带来的资源消耗问题。本文详细阐述了 Transformer 大模型优化的关键技术,包括模型量化、剪枝和知识蒸馏等,通过代码示例展示了这些技术的实际应用方法,并探讨了在不同场景下的优化案例以及需要注意的问题。
2025-05-11 16:34:11
547
原创 基于 Transformer 的大模型部署:技术、实践与展望
Transformer 架构的大模型为人工智能领域带来了深远的影响,其在自然语言处理、计算机视觉、语音等多个领域的广泛应用展现了巨大的潜力。本文从 Transformer 的基本概念出发,详细讲解了其核心机制和优势,通过代码示例展示了基于 Hugging Face Transformers 库的模型加载、文本生成以及推理优化过程,并探讨了 Transformer 大模型在不同应用场景中的实践以及部署过程中的注意事项。
2025-05-11 16:33:22
408
原创 vLLM 部署大模型的深度剖析与实战指南
在当今人工智能快速发展的时代,大模型已经成为推动众多领域变革的关键力量。vLLM 作为一款备受瞩目的大模型推理引擎,以其出色的表现吸引了众多开发者和企业的关注。本文将全面深入地剖析 vLLM 部署大模型的各项特性,从概念讲解、优缺点分析,到代码示例、应用场景展示,再到注意事项提醒以及总结展望,结合精美的图片、架构图和流程图,力求为读者呈现一篇内容详实、排版优美的深度技术博客,助力大家更好地理解和运用 vLLM。
2025-05-11 16:14:50
818
原创 vLLM 部署大模型的优缺点详解
随着人工智能技术的飞速发展,大模型在众多领域展现出了巨大的应用潜力。vLLM 作为一款专注于大语言模型推理的引擎,以其卓越的性能和高效的资源利用率,受到了广泛关注。本文将深入探讨 vLLM 部署大模型的优缺点,通过概念讲解、代码示例、应用场景分析、注意事项提醒以及丰富的图表展示,帮助读者全面了解 vLLM,为在实际项目中的应用提供参考。vLLM 作为一款强大的大语言模型推理引擎,在性能、内存管理、灵活性和可扩展性等方面具有显著优势,适用于多种应用场景,能够为企业和开发者提供高效的大模型推理服务。
2025-05-11 16:13:16
719
原创 大模型深度解析:技术、应用与未来趋势
大模型是指具有海量参数(通常在百万级以上,甚至达到数十亿、上百亿参数规模)、复杂架构和强大表征能力的人工智能模型,主要基于深度学习技术构建,通过在大规模数据上进行训练,能够学习到数据中的复杂模式和内在规律,从而在多种任务上展现出卓越的性能。大模型作为人工智能领域的核心技术,凭借其强大的表征学习能力、泛化能力和创新应用潜力,正在深刻改变各个行业的发展格局。本文从大模型的基础概念、核心技术与架构、优化策略、创新应用场景、未来发展趋势与挑战等多个方面进行了全面深入的解析,旨在为读者提供系统性的知识体系和实践指导。
2025-05-10 17:31:37
336
原创 大模型可视化:深度探索与创新应用实践
大模型可视化是指利用图形化手段,将大模型的结构、参数、激活状态、训练动态、生成过程等复杂信息转换为直观易懂的图像或交互式界面,帮助人们更好地理解大模型的工作原理、行为特征和潜在问题。大模型可视化作为理解和应用大模型的重要手段,在人工智能研究和开发领域发挥着不可或缺的作用。
2025-05-10 14:32:00
480
原创 大模型生成幻觉的降低方法全解析
大模型的幻觉问题是由多种因素引起的,单一的方法可能无法完全消除幻觉,但通过综合运用检索增强生成、提示工程、链式推理、后处理验证、知识蒸馏、参数自适应等多种方法,可以从不同角度降低幻觉发生的概率,提升模型生成内容的准确性和可靠性。在实际应用中,应根据具体的任务需求、资源情况等因素,选择合适的方法或组合,不断优化和调整策略,以最大限度地减少幻觉对模型性能和用户体验的影响,推动大模型在各个领域的更广泛应用和更可靠服务。
2025-05-10 14:27:26
986
原创 Transformer 架构:自然语言处理的基石
Transformer 架构自 2017 年诞生以来,彻底改变了自然语言处理(NLP)领域。它以独特的自注意力机制(Self-Attention)和并行计算能力,解决了传统 RNN 和 CNN 在处理序列数据时的诸多瓶颈问题,推动了机器翻译、文本生成、情感分析等 NLP 任务的性能大幅提升。本文将深入剖析 Transformer 的核心架构、工作原理、应用场景以及优化技巧,旨在为读者呈现 Transformer 的全貌,助力读者在 NLP 领域的探索之旅。
2025-05-09 23:54:34
598
原创 知识蒸馏:压缩模型体积,提升部署效率的深度学习技巧
随着深度学习模型的日益复杂,模型体积庞大、计算资源消耗高成为了实际部署中的棘手问题。知识蒸馏技术应运而生,它通过将大型复杂模型(教师模型)的知识提取并转移到小型简单模型(学生模型)中,实现了模型性能与效率的平衡。本文将全面剖析知识蒸馏的原理、方法、应用场景及注意事项,并结合代码示例和图表,助力读者深入掌握这一技术。
2025-05-09 23:50:47
466
原创 图神经网络(GNN):深度学习在图数据中的革命性应用
图神经网络是一类借鉴卷积神经网络(CNN)思想的深度学习架构,旨在解决图数据上的机器学习任务。其核心思想是通过节点与其邻居节点的信息交互,学习节点的低维嵌入表示。这些嵌入能够保留图的拓扑结构和节点特征信息,可用于节点分类、图分类、链接预测等多种任务。
2025-05-09 23:47:18
789
原创 Embedding:数据表示的深度探索
Embedding,即嵌入,是一种将数据从原始空间映射到另一特定向量空间的表示方法。在这个向量空间中,数据的每一维都对应着某种潜在的语义特征或关联关系。以自然语言处理为例,传统的文本表示方法(如 One-Hot Encoding)会将每个单词视为独立的维度,导致向量维度庞大且稀疏。而 Embedding 则将单词映射到一个低维、稠密的向量空间,使得语义相近的单词在向量空间中的距离更近。
2025-05-09 23:41:06
1012
翻译 GraphRAG开发指南
运行 poetry install 时出现“RuntimeError: llvm-config 执行失败,请将 LLVM_CONFIG 指向 llvm-config 的路径”运行 poetry install 时出现“numba/_pymodule.h:6:10: 致命错误:Python.h: 没有此文件或目录”- 这将对包应用任何可用的自动修复,包括那些可能不安全的修复。- 这会将任何可用的自动修复应用于包。确保已安装 python3.10-dev 或更常见的。,它将构建一个轮子文件和其他可分发的工件。
2025-05-09 22:54:04
9
翻译 GraphRAG入门
除了设置 API 密钥外,Azure OpenAI 用户还应在 settings.yaml 文件中设置以下变量。您应该会看到两个部分,一个用于默认聊天端点,另一个用于默认嵌入端点。文档以获取有关如何在索引器完成执行后利用我们的本地和全局搜索机制从数据中提取有意义的见解的详细信息。这取决于输入数据的大小、使用的模型以及所使用的文本块大小(这些可以在。以下是使用 GraphRAG 系统的简单端到端示例,使用从 pypi 安装选项。它展示了如何使用系统索引一些文本,然后使用索引数据来回答有关文档的问题。
2025-05-09 22:51:20
19
翻译 GraphRAG
GraphRAG 是一种结构化的、分层的检索增强生成 (RAG) 方法,不同于使用纯文本片段的简单语义搜索方法。每个圆圈代表一个实体(例如,一个人、一个地点或一个组织),其大小代表实体的等级,颜色代表其所属的社群。要了解有关 GraphRAG 的更多信息以及如何使用它来增强语言模型推理您的私人数据的能力,请访问 Microsoft Research 博客文章。将输入语料库切分成一系列文本单元 (TextUnit),这些文本单元可作为其余过程的可分析单元,并在我们的输出中提供细粒度的参考。
2025-05-09 22:48:56
9
翻译 GraphRAG: Responsible AI FAQ
虽然 GraphRAG 已针对其对提示和数据语料库注入攻击的抵御能力进行了评估,并针对特定类型的危害进行了探索,但用户使用 GraphRAG 配置的 LLM 可能会生成不适当或令人反感的内容,如果没有针对用例和模型的额外缓解措施,这可能使其不适合在敏感环境中部署。对答案进行适当的人工分析对于生成可靠的见解至关重要,并且应追溯信息的来源,以确保人工与答案生成过程中做出的推论相符。幻觉率是使用索赔覆盖率指标、答案和来源的手动检查以及对抗性攻击来评估的,以尝试通过对抗性和极具挑战性的数据集强制产生幻觉。
2025-05-09 22:30:03
10
翻译 GraphRAG:负责任的 AI 常见问题解答
虽然 GraphRAG 已针对其对提示和数据语料库注入攻击的抵御能力进行了评估,并针对特定类型的危害进行了探索,但用户使用 GraphRAG 配置的 LLM 可能会生成不适当或令人反感的内容,如果没有针对用例和模型的额外缓解措施,这可能使其不适合在敏感环境中部署。对答案进行适当的人工分析对于生成可靠的见解至关重要,并且应追溯信息的来源,以确保人工与答案生成过程中做出的推论相符。幻觉率是使用索赔覆盖率指标、答案和来源的手动检查以及对抗性攻击来评估的,以尝试通过对抗性和极具挑战性的数据集强制产生幻觉。
2025-05-09 22:25:08
10
原创 GraphRAG:微软推出的图神经网络与检索增强生成系统
微软推出的 GraphRAG 项目,作为一个模块化的基于图的检索增强生成(RAG)系统,旨在通过构建知识图谱记忆结构,增强 LLM 对非结构化文本数据的理解和推理能力。在开始使用之前,需要确保有足够的硬件资源(如内存、CPU、GPU 等),并根据数据规模和查询需求对系统进行性能优化,例如调整图数据库的配置、优化 LLM 的参数等。微软建议用户参考官方文档中的提示调优指南,根据具体的应用场景和数据特点,调整提示的格式、内容和参数,以引导 LLM 生成更符合预期的回答。
2025-05-09 22:22:43
448
原创 MindsDB:开启数据智能查询新时代
在当今数字化时代,数据成为了企业和社会发展的核心资产,然而,海量的数据往往分散在不同的数据源中,如数据库、数据仓库、SaaS 应用等,整合和利用这些数据成为了巨大的挑战。它允许用户通过自然语言和 SQL 查询大规模联邦数据,并获取高精度的答案,打破了数据孤岛,为数据的智能分析和应用提供了全新的途径。例如,在智能家居系统中,用户可以通过查询 “上个月家中用电量最高的设备是什么”, MindsDB 可以整合电表数据和设备使用记录,给出相应的分析结果,帮助用户优化能源使用。
2025-05-09 00:00:17
81
原创 Mem0:为 AI 助手注入智能记忆的超强工具
Mem0 通过构建多层级的记忆体系,包括用户记忆、会话记忆以及 AI 代理记忆,并运用智能算法实现记忆的存储、检索和更新,使得 AI 能够在与用户交互的过程中不断累积对用户的了解,进而在后续的互动中提供更贴合用户实际需求、更具针对性的响应和服务。这一层负责将记忆数据与大型语言模型的处理能力相结合,当 AI 助手需要基于记忆生成回复或进行其他智能操作时,LLM 集成层会将相关的记忆信息传递给选定的模型,并将模型的输出结果进行进一步处理后反馈给用户,从而实现记忆驱动的智能交互。
2025-05-08 23:59:40
86
原创 khoj:打造你的专属 AI 第二大脑
在这个中心里,用户可以将自己积累的各种资料,包括但不限于网页链接、电子书籍、笔记文档等进行整合,当需要获取信息或解决特定问题时,khoj 就像一位博学且忠诚的助手,迅速精准地从海量数据中筛选出有价值的内容,并以用户易于理解的方式呈现出来。例如,在学习编程语言时,当遇到某个语法知识点疑惑,如 “Python 中的装饰器具体怎么实现和使用”,通过 khoj 快速检索之前整理的学习资料,获取详细的解释示例,辅助理解掌握,提高学习效率,构建自己的知识体系。在当今信息爆炸的时代,我们每天都在与海量的信息打交道。
2025-05-08 23:58:41
85
原创 Awesome LLM Apps:探索大型语言模型应用的无限可能
Awesome LLM Apps 是一个精心策划的 LLM 应用集合,旨在展示 LLM 在不同领域的创新应用。这些应用通过结合检索增强生成(RAG)技术和 AI 代理,实现了从文本处理到多媒体创作的多样化功能。无论是初学者还是经验丰富的开发者,都能从中获得灵感和实用的解决方案。本文将详细介绍这些应用的功能特点、技术架构以及实际应用场景,帮助读者全面了解 LLM 应用的开发与应用。LLM 应用是指利用大型语言模型的能力来解决特定问题或完成特定任务的软件应用。
2025-05-08 23:58:07
104
原创 Milvus:高性能向量数据库助力 AI 应用开发
Milvus 是一款专为高效组织和检索海量非结构化数据而设计的向量数据库。它通过先进的向量检索算法和分布式架构,实现了对文本、图像等复杂数据的快速搜索和分析。Milvus 支持多种向量索引类型和硬件加速,能够轻松扩展以应对大规模数据和高并发查询需求。它不仅适用于文本搜索、图像检索等场景,还在问答系统、推荐系统等领域发挥着重要作用。本文将深入探讨 Milvus 的核心功能、架构设计、应用场景以及使用方法,并结合实际示例进行演示,帮助读者全面了解 Milvus 的强大功能。
2025-05-08 23:57:19
883
原创 LangChain-Chatchat:本地知识驱动的智能对话应用开发
LangChain-Chatchat(原 LangChain-ChatGLM)是一个基于 LangChain 和多种语言模型(如 ChatGLM、Qwen、Llama 等)的 RAG 与 Agent 应用框架。它旨在帮助开发者轻松地将 LLM 与本地知识库集成,实现智能问答、文档检索、内容生成等功能。通过简单的配置和扩展,LangChain-Chatchat 可以适配不同的应用场景,满足企业对专业知识问答系统的需求。
2025-05-08 23:46:07
589
原创 FireCrawl:将网站转化为 LLM 专属数据的利器
FireCrawl 是一款专注于网络爬取和数据提取的 API 服务,旨在为 AI 应用提供干净的数据支持。它具备先进的爬取、提取和数据转换功能,能够处理动态内容、绕过反爬机制,并支持多种输出格式。FireCrawl 提供了易于使用的 API 和丰富的 SDK 集成,方便开发者快速集成到自己的项目中。本文将详细介绍 FireCrawl 的功能特点、架构设计、使用方法以及应用场景,并结合实际示例进行演示,帮助读者更好地理解和利用这一工具。
2025-05-08 23:37:09
862
原创 Quivr:为你的应用快速集成生成式 AI 的 RAG 工具
Quivr 是一款简化生成式 AI 应用开发的 RAG 工具,它提供了简单易用的 API 和丰富的配置选项,支持多种大型语言模型(LLM)和向量数据库,能够处理各种文件格式,并且可以灵活地集成到现有的应用架构中。本文将深入探讨 Quivr 的核心概念、功能特点、架构设计、应用场景以及使用方法,并结合实际示例进行演示,帮助读者全面了解 Quivr 的强大功能和便捷性。RAG 是一种结合了检索(Retrieval)和生成(Generation)的技术范式。
2025-05-08 23:31:11
676
原创 Flowise:拖拽式构建 LLM 应用的可视化平台
Flowise 作为一个开源的拖拽式 LLM 应用构建平台,通过直观的 UI 设计和强大的工作流编辑功能,帮助用户快速构建定制化的 LLM 应用。Flowise 的核心在于其直观的 UI 设计和灵活的工作流编辑功能,使得即使是没有深厚技术背景的用户也能快速上手。通过连接不同的数据源和 LLM,Flowise 能够提供丰富的上下文信息,生成更有价值的内容。Flowise 和相关的 LLM、库会不断更新,用户需要关注官方文档和社区动态,及时更新自己的应用以获取最新的功能和性能优化。文件来调整实例配置。
2025-05-08 23:23:06
422
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人