- 博客(282)
- 收藏
- 关注
原创 2.4K star的GOT-OCR2.0:端到端OCR 模型
GOT-OCR2.0作为AI 2.0时代的重要产品,通过端到端设计、一体化架构和对多场景复杂内容的识别能力,为用户提供了精准、高效的OCR解决方案。无论是在文档数字化、场景文本识别还是复杂数据处理方面,它都展现出卓越的性能,是开发者和研究人员不可或缺的工具。GOT-OCR2.0是一款新一代的光学字符识别(OCR)技术,标志着人工智能在文本识别领域的重大进步。作为一款开源模型,GOT-OCR2.0不仅支持传统的文本和文档识别,还能够处理乐谱、图表以及复杂的数学公式,为用户提供了更加全面和高效的解决方案。
2024-09-23 10:35:46
1191
原创 变天了,Reflection 70B出世-打败 Claude 3.5/GPT4o
一个新模型横空出世,值得注意!世界顶级开源模型 Reflection 70B,在诸多指标上打败了 Claude 3.5/GPT4o.特别是推理能力超强.重模型使用 Reflection-Tuning 进行训练,使 LLM 能够修复自己的错误。这个模型的技术有可能和GPT5相似。而 405B 版本将于下周上市——它有望成为世界上最好的型号。
2024-09-09 13:42:51
541
原创 OpenAI开发ChatGPT“反作弊神器”,99.9%超高命中率,还没上线
检查内容是否用了ChatGPT,准确率高达99.9%!OpenAI又左右互搏上了,给AI生成的文本打水印,高达99.9%准确率抓「AI枪手」作弊代写。其能够精准识别出论文或研究报告是否由ChatGPT撰写,甚至能追溯其使用的具体时间点。它能专门用来检测是否用ChatGPT水了论文/作业。早在2022年11月(ChatGPT发布同月)就已经提出想法了。但是!这么好用的东西,却被内部雪藏了2年,现在都还没对外公开。
2024-08-08 16:24:00
759
原创 智谱 AI 开源视频生成模型CogVideoX:单张 4090 显卡即可推理
随着大型模型技术的持续发展,视频生成技术正逐步走向成熟。以Sora、Gen-3等闭源视频生成模型为代表的技术,正在重新定义行业的未来格局。而近几个月,国产的AI视频生成模型也是层出不穷,像是快手可灵、字节即梦、智谱清影、Vidu、PixVerse V2 等。就在近日,智谱AI秉承“以先进技术,服务全球开发者”的理念,宣布将与“清影”同源的视频生成模型——CogVideoX开源,以期让每一位开发者、每一家企业都能自由地开发属于自己的视频生成模型,从而推动整个行业的快速迭代与创新发展。
2024-08-06 18:07:11
1540
原创 阿里发布“神笔马良版Sora”:寥寥数笔,动画自成
基于OpenSora框架,创新两种运动处理模块如下图所示,Tora包括一个Spatial-Temporal Denoising Diffusion Transformer,(ST-DiT,时空去噪扩散变换器)、一个Trajectory Extractor(TE,轨迹提取器)和一个Motion-guidance Fuser(MGF,运动引导融合器)。
2024-08-06 17:57:10
867
原创 OpenAI突然上线两件“杀手锏”:势在维持大模型霸主地位
在最近的大模型战争中,OpenAI似乎很难维持霸主地位。虽然没有具体的数据统计,但Claude3.5出现后,只是看网友们的反响,就能感觉到OpenAI订阅用户的流失:既然Claude3.5比GPT-4o好用,为什么我们不去订阅Claude呢?而这长达数月的批评声中,OpenAI似乎尽显颓势,除了GPT-4o mini这个小模型以外,似乎再也没有什么创新点。甚至就在前几日,GPT-4o还被开源的大模型打败了……上周,外媒The Information还预估OpenAI今年会面临50亿美元的资金缺口。
2024-08-01 15:50:34
550
原创 英伟达开始引领下一波浪潮:物理AI
通过基于 OpenUSD 的全新生成式 AI,以及在 Omniverse 平台构建的英伟达加速的开发框架,越来越多的行业现在能够开发出用于可视化工业设计和工程项目的应用,以及用于构建新一代物理 AI 和机器人的环境仿真的应用。训练人形机器人的基础模型需要大量的数据。这套产品包括用于机器人仿真和学习的全新 NVIDIA NIM 微服务和框架、用于运行多阶段机器人工作负载的 NVIDIA OSMO 编排服务,以及支持 AI 和仿真的远程操作工作流,该工作流允许开发者使用少量人类演示数据来训练机器人。
2024-07-31 15:09:44
416
原创 Meta强势发布开源大模型Llama 3.1:打响硅谷AI保卫战
在很长一段时间内,占据大模型评测榜单最前列的大多是一些闭源模型,直到Meta再次发布了最新的开源模型。就在近日,Meta和OpenAI打响了硅谷 AI 大模型保卫战。美国当地时间7月23日,Meta正式发布Llama 3.1。其包含8B、70B 和405B三个规模,最大上下文提升到了128k。Llama是目前开源领域中用户最多、性能最强的大型模型系列之一。
2024-07-29 16:21:47
526
原创 AI视频生成器,堪称自媒体人的神器
Vozo Rewrite & Redub 是一款创新的视频编辑工具,可以通过简单的提示重写视频脚本、然后这个工具会自动给视频重新配音、翻译语音并口型同步,然后生成新的视频。无论是将经典视频转变为病毒视频宣传片,还是将普通视频变成喜剧,或是将一种语言翻译成多种语言,Vozo 都能在几秒钟内完成。
2024-07-25 18:43:00
636
原创 Mem0:个性化的AI记忆层,一款开源的大语言记忆增强工具
Mem0是一款开源的大语言模型记忆增强工具,能够让AI拥有长期、适应性强的记忆。通过自适应记忆系统,AI能实现跨应用记住用户的偏好和交互,提供连贯且不断进化的响应。Mem0的关键特性包括多层次记忆保留、自适应个性化、开发者友好的API以及跨平台一致性。还提供集中式记忆管理,简化了开发过程,开发者能够轻松构建具有高级个性化功能的AI应用。Mem0可以显著提升个性化AI的能力。通过记住用户的偏好等用户画像信息,AI产品就可以提供更加个性化服务,有较好的想象空间。
2024-07-24 11:26:38
1394
原创 Mistral联合英伟达开源12B小模型:碾压Llama 3,单张4090可跑
这将如何影响更广泛的 AI 生态系统还有待观察,但可以肯定的是:将 AI 能力更接近最终用户的竞赛正在升温,Nvidia 和 Mistral AI 已经在这一方向上迈出了大胆的一步。与动辄上千亿参数的大模型相比,小模型的优势是显而易见的:它们不仅计算成本更低,训练和部署也更为便捷,可以满足计算资源受限、数据安全级别较高的各类场景。Mistral NeMo瞄准企业用户的使用,采用属于NVIDIA AI Enterprise一部分的企业级软件,具有专用功能分支、严格的验证流程以及企业级安全性的支持。
2024-07-22 15:24:49
1052
原创 北大发布PAS:数据高效的即插即用提示增强系统
近年来,大型语言模型(LLM)的诞生刺激了对即插即用人工智能系统的需求不断增长,而在各种人工智能技术中,Prompt工程,即通过不断调整给予大模型的指令以优化大模型生成结果显得尤为重要。然而,由于陡峭的学习曲线和大量的时间投入,用户在编写提示时经常面临挑战,就连目前最熟练的“提示工程师”也很难保证调试出最优化的提示,而这限制了大模型实际落地的效果。同时,现有的自动提示工程(APE)模型可能难以使用。
2024-07-19 14:34:30
458
原创 大模型模仿人类记忆,迎来无限上下文时代
而现有的大型语言模型(LLMs),虽然已经展现出了非凡的能力,但在处理广泛的上下文时仍然存在困难,这限制了它们在处理长序列时保持连贯性和准确性的能力。此外,分析显示,EM-LLM的事件分割与人类感知的事件有很强的相关性,表明了这个人工系统和其生物对应物之间的桥梁。在这项工作中,介绍了EM-LLM,这是一种新颖的方法,它将人类事件记忆和事件认知的关键方面整合到LLMs中,使它们能够有效处理几乎无限的上下文长度,同时保持计算效率。原文指路:https://arxiv.org/abs/2407.09450。
2024-07-18 16:32:07
590
原创 快手开源LivePortrait:将照片变为生动视频,实现表情姿态迁移
此外,还使用了大规模4K分辨率的人像视频,包含不同的表情和姿态,200余小时的说话人像视频,一个私有的数据集LightStage[6],以及一些风格化的视频和图片。接着,驱动关键点 (xd) 分别被眼部和嘴部对应的变形变化量更新,对应的驱动输出为 (Ip,eyes) 和 (Ip,lip)。最后,眼部和嘴部重定向模块的目标函数分别为 (Leyes) 和 (Llip),分别计算眼部和嘴部区域的像素一致性损失,眼部和嘴部变化量的正则损失,以及随机驱动系数与驱动输出的张开条件系数之间的损失。
2024-07-18 15:59:19
800
原创 “欧洲OpenAI”开源新模型,实现更快、更长的代码生成
Mistral 测试了该模型,测试结果显示该模型可以在 Mistral 的 l a Plateforme API上免费使用,可处理多达 256,000 个令牌的输入——是 OpenAI 的 GPT-4o 的两倍。Mistral 表示,该模型的表现优于所有为数学推理设计的模型。而就在今天,MistralAI在其不断壮大的大语言模型(LLM)家族中增添了两名新成员:一位是名为Mathstral的基于数学的模型,另一位是基于其他研究人员去年年底开发的名为Mamba的新架构,供程序员和开发人员提供的代码生成模型。
2024-07-17 16:33:18
967
原创 RTX 4090:AI时代的性能首选
在这个日新月异的数字时代,每一次技术的飞跃都是对极限的挑战与超越。而作为当下性能最为出色的芯片,RTX4090无疑是许多人对于算力、GPU性能追求的首选,其惊人的CUDA核心数量,配合高速GDDR6X显存,无论是深度学习、高帧率4K/8K专业图形渲染,还是进行AI大模型推理,都能轻松驾驭,游刃有余。高性价比GPU算力:https://www.ucloud.cn/site/active/gpu.html?上图中,我们可以看出相比于同样在性能方著称的芯片A100,4090在各方面性能上仍旧是强大了不少。
2024-07-16 18:26:07
6774
原创 可灵之后,快手又一最新明星产品:告别鬼画符,一键生成理想图像
例如,我们输入提示词:复古摄影写真,80年代的MTV风格,多巴胺的色彩装饰,背景是室内复古电视,电视中写着中文“AI研究”,一把绑着粉色蝴蝶结的叉子,一个草莓蛋糕,电视广告,80年代流行文化,柔光。例如,我们输入提示词:毛毡艺术,高清,毛毡材质,高级滤镜,可爱,卡通,羊毛毡娃娃,名画,梵高的自画像。提示词:可爱的柴犬,穿着西装,一只手托着酒杯,另一只手拿着玫瑰花。提示词:摄影人像,写真,东方面孔的羊毛卷长发美女,穿着复古的服装,鲜花点缀在头发上面,高级滤镜,复古,蓝色背景。近期,快手平台又又又成为了焦点。
2024-07-16 15:31:35
1063
原创 大模型时代的小红书+马蜂窝:华人团队开发 的AI旅行app
一周前,由红杉投资的硅谷初创公司UTA AI推出了其核心产品Wanderboat AI,这是一个基于GPT-4技术的智能旅行规划工具。该平台允许用户通过对话交互来明确旅行的偏好和需求,并提供包括目的地、活动和实用建议在内的定制化旅行建议。Wanderboat AI整合了视频、图片、地图和评价等多种媒体资源,以增强用户体验。它还具备智能互动特性,用户可以随时查询并得到立即答复。
2024-07-15 17:03:19
985
原创 阿里通义音频生成大模型 FunAudioLLM 开源
近年来,人工智能(AI)技术的进步极大地改变了人类与机器的互动方式,特别是在语音处理领域。阿里巴巴通义实验室最近开源了一个名为FunAudioLLM的语音大模型项目,旨在促进人类与大型语言模型(LLMs)之间的自然语音交互。FunAudioLLM包含两个核心模型:SenseVoice和CosyVoice,分别负责语音理解和语音生成。
2024-07-12 17:14:51
1758
原创 Twelve Labs:专注视频理解,像人类一样理解视频内容
Pegasus-1(800 亿参数)是 Twelve Labs 的视频语言模型(Video-to-Text),通过「视频优先」策略确保卓越的视频理解,具有高效的长视频处理、多模态理解、原生视频嵌入和深度视频语言对齐的优点。此模型分析视频的语义内容(Sematic search),包括视频,音频,Logo 等数字材料,文字等全面分析场景关联性,以实现高效且准确的特定视频片段检索,帮助用户在无需观看完整内容的情况下精准搜索到大量来自 Youtube, Tiktok,Reels 等视频库的材料。
2024-07-12 17:01:19
1037
原创 对比H100与4090:两者谁才是更好的GPU算力选择?
在进行深度学习和人工智能的应用时,挑选最合适的硬件工具对于模型的训练和推断任务显得尤为关键。尤其在大模型的训练上,英伟达4090或许并不是最合适的选项。进行训练任务时,通常要求有更大的显示存储容量、更宽的内存带宽以及更出色的计算性能。此外,还必须能够适应海量数据处理需求,如实时视频图像分析等。考虑到这些需求,英伟达的高性能显卡系列,比如A100和H100,通常更适合处理大量的数据集和复杂的模型。但是,在进行推理任务时,英伟达4090在性价比方面可能超过H100系列处理器。
2024-07-11 18:31:50
10956
原创 NVIDIA RTX 4090解析:卓越的性能表现带来全新的AI探索高度
NVIDIA GeForce RTX 4090 在性能、效率和 AI 驱动的图形领域实现了质的飞跃。这款 GPU 采用 NVIDIA Ada Lovelace 架构,配备 24 GB 的 GDDR6X 显存。此外,RTX 4090还引入了多项创新技术。例如,它支持 DirectX12Ultimate,能够在即将推出的视频游戏中支持硬件光线追踪和可变速率着色,为用户带来更加逼真的游戏画面。
2024-07-09 18:17:05
3228
原创 蚂蚁百灵大模型:多模态能力让大模型像人一样理解感知
蚂蚁集团有着丰富的应用场景,百灵大模型的多模态能力,也已被应用在生活服务、搜索推荐、互动娱乐等场景。7月5日,在2024世界人工智能大会“可信大模型助力产业创新发展”论坛上,蚂蚁集团公布其自研百灵大模型最新研发进展:百灵大模型已具备能“看”会“听”、能“说”会“画”的原生多模态能力,可以直接理解并训练音频、视频、图、文等多模态数据。“从单一的文本语义理解,到多模态能力,是人工智能技术的关键迭代,而多模态技术催生的‘看听说写画’的应用场景,将让AI的表现更真实,更接近人类,从而也能更好地服务人类。
2024-07-09 17:28:19
2134
原创 MindsDB:一个利用企业数据构建 AI 的平台
MindsDB 的核心理念是使数据库不仅能够存储和检索数据,还能基于这些数据进行智能预测。它是一个透明的层,可以嵌入到任何SQL数据库(如MySQL, PostgreSQL等)之上,使得即使没有深度学习背景的开发人员也能利用其强大的预测功能。MindsDB可直接在数据库中进行建模,省去了数据处理、搭建机器学习模型等头疼的步骤,可以说是一步到位。
2024-07-08 16:26:07
1300
原创 Fish Speech: 开源文本转语音技术(TTS)的新里程碑
Fish Speech代表了开源TTS技术的一个重要里程碑。它不仅展示了深度学习在语音合成领域的巨大潜力,还为开发者和研究人员提供了一个强大的工具来推动语音技术的进一步发展。随着持续的改进和社区贡献,Fish Speech有望在未来塑造更多创新的语音应用,为用户带来更自然、更个性化的语音交互体验。
2024-07-05 11:43:19
3320
转载 全网最全的TTS模型汇总,电商人、自媒体人狂喜
以上就是小编给大家整理汇总的主流的TTS模型以及对应传送门,如果大家有云部署的需求,可以点击下方链接,查看GPU特惠活动:https://www.ucloud.cn/site/active/gpu.html?支持多种语言包括英语、中文,能够进行同语言生成和跨语言生成,能处理各种文本,叙述性文本、情感表达、描述性文本等,能根据不同的情感和语境生成相应的语音。原生支持英语、西班牙语、法语、中文、日语和韩语,具有灵活的语音风格控制和零样本跨语言语音克隆能力。可以控制音调、速度、性别、噪音水平、情绪特征等等。
2024-07-03 18:40:11
1074
原创 微软与OpenAI/谷歌与三星的AI交易受欧盟重点关注
近日,欧盟委员会主管竞争事务的副主席玛格丽特·维斯塔格(Margrethe Vestager)在一次演讲中透露,欧盟反垄断监管机构将就微软与OpenAI的合作,以及谷歌与三星达成的AI协议寻求更多第三方意见。欧盟的这一行动并非孤立。早在今年3月,维斯塔格就向微软、谷歌、Facebook、TikTok等大型科技公司发出了关于其 AI合作关系的调查问卷,以收集有关这些合作可能对市场竞争产生影响的信息。对此,微软表示将积极配合欧盟的调查,并强调其投资Open AI的初衷是推动AI技术的创新和发展。
2024-07-02 17:20:16
754
原创 全球首款搭载Google Gemini和GPT-4o的智能眼镜发布
但 Solos 表示,其目前仅具备音频功能的智能眼镜将在今年晚些时候推出一个带摄像头的版本,并搭载 OpenAI 的新 GPT-4o AI 模型,让摄像头识别物体并回答关于你所见问题。Solos AirGo Vision 还采用了与其他 Solos 眼镜相同的可更换镜框系统,因此如果你去的地方不适合使用摄像头,或者你只是想要不同的外观或一些太阳镜,可以更换镜框。摄像头安装在镜框的右侧,可以与语音提示一起使用,利用 AI 模型——特别是 OpenAI 的 GPT-4o——通过摄像头捕捉到的信息来回答问题。
2024-07-01 18:20:59
617
原创 百度发布文心大模型4.0 Turbo;用户规模突破3亿人
王海峰表示,文心一言 4.0 Turbo 的上下文输入长度从 4.0 版的 2K tokens 升级到了 128K tokens,能够同时阅读 100 个文件或网址,AI 生图分辨率也从 512*512 提升至 1024*1024逻辑能力:文心大模型4.0 Turbo在逻辑推理方面表现出色,能够处理复杂的逻辑关系,为AI应用提供强大的逻辑支持。根据百度首席技术官王海峰的介绍,文心大模型4.0的逻辑能力是文心一言3.5的3倍,这种增强的推理能力使得文心大模型4.0 Turbo能够更好地理解和执行复杂的指令。
2024-07-01 13:55:36
1645
原创 直播带货大模型,开启自动卖货的时代
模型用 xtuner 在 InternLM2的基础上指令微调而来,部署集成了LMDeploy加速推理,支持ASR 语音生成文字壹, 支持RAG检索增强生成三做到可以随时更新说明书指导主播生成文案,支持Agent 通过网络查询快递信息,还加入 带有感情的TTS文字转语音生成,最后还会生成主播数字人视频,让主播不止于文字介绍。它还能够生成富有感情色彩的语音,让商品介绍更加生动,以及创造虚拟主播的视频,为观众带来更加直观和有趣的购物体验。检索增强生成(RAG):结合商品说明书和相关文档,增强生成的文案内容。
2024-06-27 17:05:08
1424
原创 一张顶20张H100,速度10倍于B200:史上最快AI芯片,华人制造
也因此,Sohu 实现了 90% 以上的 FLOPS 利用率,而使用 TRT-LLM 的 GPU 约为 30%。作为一块 ASIC(专用集成电路),Sohu 芯片最大的亮点在于直接把 Transformer 架构蚀刻到芯片中,乌伯蒂称 Sohu 采用台积电的 4 纳米工艺制造,推理性能大大优于 GPU 和其他通用人工智能芯片,同时能耗更低,而如今的每款主流 AI 产品如 ChatGPT、Claude、Gemini 和 Sora 都是由 transformer 驱动的。昨天凌晨,科技圈迎来了一个重要新闻。
2024-06-27 16:13:52
801
原创 对比A100和4090:两者的区别以及适用点
RTX 4090芯片和A100芯片虽然都是高性能的GPU,但它们在设计理念、目标市场和性能特点上有着明显的区别,而本篇文章将简单概述两者的区别同时介绍一下二者的特性。虽然A100被称为深度学习神器,但是不一定代表他的性能任何时候都超过其他显卡,A100对标的是RTX 3090,都是Ampere架构的,而RTX 4090作为RTX 3090的升级版,架构是Ada Lovelace,单卡性能至少提升60%以上,RTX 4090在理论上核心性能远强于A100,下面这2个参数对比图也可以很直观的看出2张卡的差距。
2024-06-24 18:35:41
12853
原创 黄仁勋口中“生物工程化”的美好愿景,正在被这家公司努力变成现实
自成立以来,bit.bio一直秉持着可编程生物学的理念,公司希望运用细胞重编程技术,大规模、持续地生产任何所需的人类细胞,从而加速新一代生物制品的开发和制造。6月20日,一家为人类细胞编码新疗法的公司,也是合成生物学领域的先驱英国合成生物公司bit.bio宣布推出ioAstrocytes,这是一种功能性人类iPSC(诱导多能干细胞)衍生的星形胶质细胞,科学家表示该产品为中枢神经系统(CNS)药物研发打开了新的大门,该产品组合为疾病研究创造了一个无与伦比的工具包,可以解决数据可重复性的挑战,并加速治疗发展。
2024-06-24 17:21:20
502
原创 模仿人类大脑皮层,微软投资:全新AI「千脑计划」启动
一项名为“千脑计划”(Thousand Brains Project)的宏伟新计划正式启动,其目标是开发一种全新的人工智能框架。加州人工智能公司 Numenta 的联合创始人,同时也是这项项目的负责人Jeff Hawkins 表示,该框架将按照与人脑相同的原理运行,但与当今主导人工智能的深度神经网络的原理有着根本的不同。在盖茨基金会的资助下,这项开源计划旨在与电子公司、政府机构和大学研究人员合作,探索其新平台的潜在应用。
2024-06-21 14:53:52
640
原创 TikTok 推出专属AI 内容工具
Symphony将人类的创造力与AI的高效性完美融合,为不同规模的企业、创作者和机构提供了强大的支持。例如,在创建广告的过程中,系统会提示自动诊断到的优化机会,并提供AI修复和优化的建议。在TikTok的广告管理器中,这些功能通过一个直观的仪表板进行操作,包括了广告系列、资产、分析等模块。- 自动优化:能够即时生成吸引人的脚本、字幕和配音,并将它们无缝整合到视频中,以吸引观众的注意力。- 脚本编写:根据客户的品牌信息和目标受众,生成适合TikTok的广告脚本,并提供优化建议。
2024-06-20 15:48:22
964
原创 超越Llama3,多模态比肩GPT4V:GLM-4智能体,新一代语言处理利器
在语义、数学、推理、代码和知识等多方面的数据集测评中, GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出超越 Llama-3-8B 的卓越性能。在人工智能领域,自然语言处理技术一直备受关注。由此可见,GLM-4-9B和GLM-4V-9B在多项评测中表现优异,包括对话模型典型任务、基座模型典型任务、长文本能力、多语言能力和工具调用能力。模型性能:在语义、数学、推理、代码和知识等数据集评测中,GLM-4-9B及其对齐版本GLM-4-9B-Chat表现优于Llama-3-8B。
2024-06-20 15:24:10
684
原创 无问芯穹Qllm-Eval:制作多模型、多参数、多维度的量化方案
近年来,大语言模型(Large Models, LLMs)受到学术界和工业界的广泛关注,得益于其在各种语言生成任务上的出色表现,大语言模型推动了各种人工智能应用(例如ChatGPT、Copilot等)的发展。然而,大模型的落地应用受到其较大的推理开销的限制,对部署资源、用户体验、经济成本都带来了巨大挑战。大模型压缩,即将大模型“瘦身”后塞进资源受限的场景,以减少模型存储、访存和计算开销。
2024-06-19 18:58:26
983
原创 对比4090及4090D:国区“特供”与原版相比有何区别?
GeForce RTX 4090拥有的512 Tensor 核心能提供5283 TPP (Total Processing Performance),而GeForce RTX 4090D拥有的456 Tensor核心提供4700 TPP ,刚好卡在4800 TPP之下,意味着GeForce RTX 4090D与GeForce RTX 4090相差的就是8组TPCs,数量差距还是比较大的。功耗方面,4090和4090D的待机功耗均为19W,但4090D的平均游戏功耗稍有降低。(左为4090 右为4090D)
2024-06-19 18:52:24
13733
原创 MaxKB-无需代码,30分钟创建基于大语言模型的本地知识库问答系统
模型类型选择 大语言模型基础模型不能随意填写,只能使用ollma模型库中已有的模型类型:https://ollama.com/library,这里我们用的是qwen:1.8b。大模型和知识库创建成功后,就可以创建应用了。点击“应用->创建应用”,填入应用名称和应用描述,注意这里AI模型和关联知识库要选择前面两步创建的AI模型和知识库。除了上面截图中的环境要求外,建议docker的版本不低于20.10.8,否则可能无法启动Ollama服务。API域名填写前面ollama起服务的机器ip和端口(11434)
2024-06-18 19:07:36
2149
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人