news 2026/4/10 7:11:34

【前端学习AI】大模型调用实战

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【前端学习AI】大模型调用实战

本地部署:基于Ollama调用开源大模型

Ollama 是轻量级本地大模型运行框架,无需依赖云端服务,可快速部署通义千问、Llama 等开源大模型,特别适合无网络环境或隐私敏感场景。

步骤1:安装Ollama

从官方网站下载并安装:ollama.com/

步骤2:拉取并运行大模型(以通义千问3-vl 2B为例)

# 拉取并运行模型(首次执行会自动下载模型文件) ollama run qwen3-vl:2b # 查看本地已下载的所有大模型 ollama ls

关键提示:首次运行需保持网络通畅,下载耗时取决于模型大小和网络速度;2b代表模型参数量(20亿参数),参数量越小,对本地硬件(内存、显卡)的要求越低,运行速度也越快。

步骤3:用LangChain调用Ollama

# 安装LangChain对接Ollama的依赖包 pip install langchain-ollama from langchain_ollama.chat_models import ChatOllama # 初始化模型(模型名称需与本地运行的模型一致) llm = ChatOllama(model="qwen3:0.6b") # 调用模型并打印结果 output = llm.invoke("你好,请介绍一下自己") print(output.content)

前置条件:运行上述代码前,需确保 Ollama 服务已启动(可通过终端执行ollama run 模型名启动对应模型服务)。

二、云端调用:阿里百炼大模型(通义千问)

阿里百炼是阿里云推出的企业级大模型服务平台,支持通过 OpenAI 兼容接口、LangChain 等方式调用通义千问系列模型,具备稳定算力、灵活扩展的优势,适合生产环境或强算力需求的场景。

步骤1:获取API Key(核心鉴权凭证)

  1. 登录阿里百炼控制台:bailian.console.aliyun.com/
  2. 完成实名认证后,在控制台的「API-KEY 管理」模块创建并获取 API Key(用于接口调用的身份鉴权)。

关键提示:API Key 属于敏感信息,需妥善保管,避免公开泄露(如提交至开源仓库、随意分享)。 调用前需确保阿里云账号有可用额度,否则会提示权限不足或额度耗尽。

步骤2:调用大模型(两种常用方式)

方式一:通过OpenAI SDK调用
# 安装OpenAI SDK依赖包 pip install openai from openai import OpenAI # 初始化客户端(配置阿里百炼的鉴权信息和兼容接口) client = OpenAI( # 替换为自己的API Key api_key="你的阿里百炼API Key", # 阿里百炼OpenAI兼容接口地址 base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) # 调用模型生成回复 completion = client.chat.completions.create( # 指定通义千问模型版本(如qwen-plus增强版、qwen-turbo轻量版) model="qwen-plus", messages=[ {"role": "system", "content": "你叫小Q,是一名专业的翻译助手"}, {"role": "user", "content": "你是谁?"}, ], ) # 打印模型回复内容 print(completion.choices[0].message.content)
方式二:通过LangChain调用
# 安装LangChain对接OpenAI的依赖包(适配阿里百炼兼容接口) pip install langchain-openai from langchain_openai import ChatOpenAI # 初始化模型(适配阿里百炼接口) llm = ChatOpenAI( # 阿里百炼的通义千问模型名称 model_name="qwen-plus", # 阿里百炼OpenAI兼容接口地址 base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 替换为自己的API Key api_key="你的阿里百炼API Key", ) # 调用模型并打印结果 response = llm.invoke( [ {"role": "system", "content": "你叫小Q,是一名专业的翻译助手"}, {"role": "user", "content": "你是谁?"}, ], ) print(response.content)

三、核心注意事项

  • 大模型调用主要分为两种模式:同步调用(一次性获取完整回复结果,适合简单问答)和流式调用(逐字/逐段实时输出,贴近真实聊天体验,适合长文本生成场景)。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

​因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/7 18:36:01

24、云存储队列与表服务操作全解析

云存储队列与表服务操作全解析 在云存储的应用场景中,队列和表服务是非常重要的组成部分。下面将详细介绍队列消息的操作以及 Windows Azure 表服务的相关内容。 队列消息操作 消息入队 向队列中添加消息时,通过发送如下的 HTTP POST 请求: POST /testq1/messages?ti…

作者头像 李华
网站建设 2026/4/5 22:29:25

31、逐跳行为(PHB)及其实现示例

逐跳行为(PHB)及其实现示例 在网络通信中,为了实现不同类型流量的差异化服务,逐跳行为(Per-Hop Behavior,PHB)的概念应运而生。PHB 描述了差分服务(Diffserv)节点对特定差分服务行为聚合体的外部可观察转发行为。下面将详细介绍 PHB 的相关内容。 1. PHB 基础概念与…

作者头像 李华
网站建设 2026/4/8 14:37:10

互联网大厂求职:Java面试中的技术点和业务场景解析

互联网大厂求职:Java面试中的技术点和业务场景解析 场景描述: 在某互联网大厂的面试室内,面试官正襟危坐,而一旁坐着的程序员谢飞机则显得有些紧张。这是谢飞机的第N次面试,前几次的“辉煌战绩”让他今天不敢掉以轻心。…

作者头像 李华
网站建设 2026/4/1 11:29:58

智谱Open-AutoGLM究竟有多强?:3大核心技术解密国产AutoML新范式

第一章:智谱 Open-AutoGLM沉思在大模型与自动化机器学习交汇的前沿,智谱推出的 Open-AutoGLM 引发了广泛的技术关注。它并非传统意义上的 AutoML 工具,而是尝试将自然语言理解能力与自动化建模流程深度融合,实现以“对话”驱动机器…

作者头像 李华
网站建设 2026/4/8 17:14:45

(AutoGLM 2.0 vs 传统建模):性能对比实测,结果令人震惊

第一章:AutoGLM 2.0 vs 传统建模:性能对比实测,结果令人震惊在真实业务场景中对 AutoGLM 2.0 与传统机器学习建模流程进行端到端对比测试,结果显示其效率与精度均实现跨越式提升。本次测试基于金融风控数据集,涵盖特征…

作者头像 李华
网站建设 2026/4/3 5:09:01

29、Git Hooks与项目组合策略详解

Git Hooks与项目组合策略详解 1. 引言 在使用Git进行版本控制的过程中,我们经常会有各种特定的需求,比如在执行某些操作前后自动执行特定任务,或者处理项目中依赖的外部库。Git提供了钩子(Hooks)机制来满足前者的需求,同时对于项目组合,也有多种策略可供选择。 2. Gi…

作者头像 李华