2025-11-13 13:46:15
勇哥注:Langchain提供了一套工具、组件和接口,简化了创建LLM应用的过程Models:模型,比如GPT-4oPrompts:提示,包括提示管理、提示优化和提示序列化Memory:记忆,用来保存和模型交互时的上下文Indexes:索引,用于结构化文档,方便和模型交互如果要构建自己的知识库,就需要各种类型文档的加载,转换,长文本切割,文本向量计算,向量索引存储查询等Chains:链,一系列对各...
2025-11-07 07:44:09
勇哥注:要让模型拥有联网搜索功能,仅需要在dashscope.Generation.call中增加一个开关enable_search。当然,这是在dashscope风格的时候如此,如果是openai风格就不是这样了。源码:import os
import dashscope
dashscope.api_key=os.environ.get("DASHSCOPE_API_KEY&q...
2025-11-06 21:21:58
勇哥注:这节是调用千问多模态模型qwen-vl-plus,完成表格的内容提取,并转为json格式。注意几点: 图片可以是本地,或者是线上的。 多模态模型的api调用是:dashscope.MultiModalConversation.call而不是dashscope.Generation.call源码:import os
import dashscope
import json
dash...
2025-11-06 16:41:30
勇哥注:这一节使用一个天气查询的例子来测试LLM调用的function功能。这个功能是这样的:用户:”告诉我北京的天气“LLM无法直接回答这个问题,于是它把这个问题进行分析,解构出一些参数,用这些参数去调用用户定义好的一个函数。最后用用户自定义函数返回的结果,通过自然语言表述给用户。LLM:-----------------北京的天气情况是:- 温度:25摄氏度- 预报:天气晴朗,微风------...
2025-11-05 20:46:27
尝过在虚拟机安装visionMaster试用版没?结果是下面这样的。真是无语,我们农民工只是想多试用几天罢了。看来,还是专门搞个不联网的电脑,30天后全盘重做系统总行了吧。另外,勇哥电脑是工作站,64G内存,可不可以划分十几G来安装一个操作系统呢?如果用这个操作系统再来安装visionMaster会怎么样? 断电后啥都没了,会不会就可以了呢?好兴奋的想法啊~~...
2025-11-05 20:31:34
大模型的api调用风格,分为openai和dashscope两种。前者是为了兼容漂亮国的openai,后者是字节跳动的一种api调用风格。阿里的百炼大模型都支持以上两种方式,包括其它的第三方模型,如deepseek;勇哥在这里演示的是deepseek的dashscope调用示例。代码:import os
from dashscope import Generation
# 初始化请求参数...