MCP引入一段简单的LangGraph 发表于 2025-08-18 分类于 LLM 本文字数: 837 阅读时长 ≈ 3 分钟 前言在上一篇文章中,我们讨论了怎么在构建MCP。为了能够实现更复杂的功能,我们尝试将LangGraph引入到MCP中。 阅读全文 »
MCP入门级简单尝试 发表于 2025-08-13 分类于 LLM 本文字数: 1.6k 阅读时长 ≈ 6 分钟 前言既然MCP都已经出现了,甚至已经纳入面试题目了,就简单尝试一下这个新玩意儿。 阅读全文 »
用FunctionCall实现文件解析(十):接入LangGraph 发表于 2025-07-23 更新于 2025-07-31 分类于 LLM 本文字数: 1k 阅读时长 ≈ 4 分钟 前言既然我们在前面的$9$篇文章中做了这么多事情,接下来就再加一点新东西:LangGraph。 P.S.:虽然说官方最新版本已经更新到了比较后面,支持Runtime的版本,但是我的项目已经有点积重难返了,所以只能使用早些时候不支持Runtime的版本了。 P.S.:代码库已经开源至GitHub 阅读全文 »
用FunctionCall实现文件解析(九):用通义千问构建rerank方法 发表于 2025-07-23 分类于 LLM 本文字数: 1.3k 阅读时长 ≈ 5 分钟 前言好了,铺垫了这么这么久,总算来到稍微正经一点的问题上了。 P.S.:毕竟咱是演示项目,做起来就很粗暴,搜索时间也从来没有优化,所以搜索时间复杂度也是相当的绝望呢。 阅读全文 »
用FunctionCall实现文件解析(八):构建跨页面记忆模块 发表于 2025-07-17 更新于 2025-07-21 分类于 LLM 本文字数: 827 阅读时长 ≈ 3 分钟 前言既然我们在之前的文章中实现了调用大模型获取答案的过程,接下来我们也将多个页面整合起来,最终实现一个总览的效果。因此,本文通过每个页面维护一个历史记录字典,则可以实现跨页面记忆。 阅读全文 »
用FunctionCall实现文件解析(七):被动地等ChatOpenAI塞进来 发表于 2025-07-15 分类于 LLM 本文字数: 596 阅读时长 ≈ 2 分钟 前言在上一篇文章中,我们研究了怎么样主动把ChatOpenAI塞进去,那么接下来就是得研究怎么把ChatOpenAI被动地塞进来。 阅读全文 »
用FunctionCall实现文件解析(六):主动地把ChatOpenAI塞进去 发表于 2025-07-15 分类于 LLM 本文字数: 1.7k 阅读时长 ≈ 6 分钟 前言在上一篇文章中,我们将ChatOpenAI强行塞入前端,实现了一个乱七八糟的前端页面。这当然不是很好的。所以,今天我们就来优雅的再塞进去一次,争取完善之前的问题。 当然,这次主要讨论的是主动方式,也就是自行实现一个Wrapper类。 阅读全文 »
用FunctionCall实现文件解析(五):ChatOpenAI强行塞入前端 发表于 2025-07-14 更新于 2025-07-15 分类于 LLM 本文字数: 2k 阅读时长 ≈ 7 分钟 前言我们在上一篇文章中完成了ChatOpenAI实例的使用,接下来,我们将这个内容放入streamlit中,这样就可以实现一个简单的小产品了。 P.S.:本篇虽然包含实现过程,但是代码存在巨大缺陷,将在下一篇文章中修复。所以请不要太在意本文代码,请期待下一篇的正确代码。 阅读全文 »
用FunctionCall实现文件解析(四):ChatOpenAI处理大模型返回结果 发表于 2025-07-13 更新于 2025-07-14 分类于 LLM 本文字数: 1.6k 阅读时长 ≈ 6 分钟 前言在上一篇文章中,我们完成了ChatOpenAI的实例化。接下来也就自然而然是使用它了。 阅读全文 »
用FunctionCall实现文件解析(三):ChatOpenAI实例化 发表于 2025-07-12 分类于 LLM 本文字数: 979 阅读时长 ≈ 4 分钟 前言在前面的文章中,我们尝试了结构和客户端的构建,接下来我们就开始新的尝试:创建ChatOpenAI实例。 阅读全文 »