- 博客(7)
- 收藏
- 关注
原创 一个比喻搞懂TCP/IP模型
我们可以把数据传输想象成一次 “跨国快递旅行”,每层就像不同国家的 “运输部门”,各有分工又紧密合作。:只负责 “同一城市 / 小区内的最后一公里配送”,需要具体到每辆车的物理地址。:只关心 “用什么工具运”(电 / 光 / 无线电信号),不关心包裹里装了什么。:只关心 “国家间的大路线”,不关心某个城市内的小路(如数据链路层的细节)。:确保 “包裹有序到达” 和 “问题可追溯”(TCP 的可靠传输机制)。:只关心 “寄什么” 和 “发给谁”,不关心运输细节。,最终实现数据从 “你→朋友” 的完整旅程~
2025-05-24 00:46:39
684
原创 如何更新已安装的Open WebUI?
以下是更新已安装的Open WebUI的分步指南,根据不同的安装方式提供针对性方案:对于一个新手来说,这个天大的难题,毕竟对于docker不是很熟悉,为此在所谓的技术博客找了一天,不是收费,就是讲不明白。在B站上没有人讲这个基础的东西,对于程序员来讲这个都是很小的事情。自然没人回去讲。今天我就把这个分享个大家,希望对小白同学有帮助。
2025-03-02 02:05:51
1866
原创 AI显卡大战升级:英伟达新核弹曝光,国产芯片能否突围?
半导体行业正经历着前所未有的技术革命,当英伟达在2024年GTC大会上展示其代号"Blackwell"的B100芯片时,全球AI产业的目光再次聚焦在这家硅谷巨头身上。这款采用3nm工艺的超级芯片,在功耗降低40%的同时实现了5倍性能提升,其架构创新彻底重构了计算范式。但在太平洋的另一端,中国半导体军团正以"系统工程"思维构建自主AI生态,这场关乎未来十年科技主导权的竞赛,已经进入深水区。
2025-02-20 11:05:01
370
原创 为什么建议跑ai用40及以上而非30系显卡
在运行AI任务时,**NVIDIA 40系显卡(如RTX 4090/4080/4070/4060)**相比30系显卡具有显著优势,主要体现在等方面。
2025-02-10 11:17:42
3274
原创 已经启用了ollama并下载了模型,但是webui上选不到模型
检查 Docker 运行命令中是否包含 --add-host=host.docker.internal:host-gateway。通过以上步骤,Open WebUI 应能正确识别 Ollama 模型。若问题仍存在,请提供。在 Open WebUI 中输入模型名称时,需与。输出应包含已下载的模型(如。登录 Open WebUI((你的命令已包含此参数)。应返回已下载的模型列表。
2025-02-10 11:17:05
5647
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人