Bolt.new 用一句话快速构建全栈使用:本地布置与使用实战(Ollama/Qwen2.5 等)
跟着 AI 编程东西的迅猛发展,从前期的 Code Copilot(代码辅佐)到现在备受瞩意图 Cursor、v0、Windsurf 和 Bolt.new 等全栈开发渠道。这些立异东西旨在加速项目开发、简化作业流程并进步研制功率。但是,拜访这些东西一般依靠于“晓畅的网络”和海外 LLM 模型,在某些情况下或许成为运用这些东西的妨碍。
作为一位大模型的爱好者和学习者,老牛同学今日共享一条不同的途径——怎么运用本地 Ollama 和国内的大模型 API,在本地布置和运用 Bolt.new?
以下是老牛同学录制的本地布置和运用Bolt.new的视频:经过一句话,即可主动完结整个小项意图代码编写和布置预览:微信大众号视频
1. Bolt.new 概览
Bolt.new是由 StackBlitz 推出的一款改造性的 AI 驱动全栈开发渠道,它以几个要害特性锋芒毕露:
- 即时全栈环境:凭仗 WebContainer 技能,Bolt.new 能够在浏览器中直接运转实在的 Node.js 环境,支撑 npm 包装置、服务器装备及第三方 API 交互,为开发者供给了史无前例的快捷性。
- 智能 AI 帮手:内置的强壮 AI 功用能够了解并履行杂乱的指令,无论是创立文件、修正代码仍是解决问题,都能明显进步作业功率。特别是其一键修正过错的功用,能够主动处理编译或运转时呈现的问题,极大地节省了时刻。
- 简易布置流程:集成的谈天界面让用户能够直接上传代码至云端,并挑选适宜的保管服务(如 Vercel)进行布置。生成的应用程序能够经过 URL 轻松共享,促进团队协作和效果展现。
虽然 Bolt.new 带来了许多便当,但也存在一些限制:
- 缺少版别操控:代码调整或许导致原有版别被掩盖,增加了数据丢掉的危险。
- 频频从头生成和布置:每次修正需求时,Bolt.new 会从头生成整个代码库并布置,需求较长时刻。
关于快速原型规划和全栈功用开发,Bolt.new 凭仗其完好的开发环境、智能化的辅佐东西和简洁的协作机制,是一个不错的挑选。
2. 本地布置 Bolt.new
预备本地大模型
Bolt.new 底层依靠 LLM,咱们先预备 2 个 LLM 选项:本地运转 Ollama,和 API 调用的长途 LLM 服务(非有必要)
- 本地 Ollama:关于 Ollama 具体运用教程,请参阅之前文章(Ollama 完好教程),主张下载和发动Qwen2.5-Coder-7B模型:
ollama run qwen2.5-coder:7b
- LLM 服务 API:Ollama 依靠电脑硬件装备,假如电脑硬件条件有限,咱们还能够直接用户大模型服务 API,只需求兼容 OpenAPI 接口标准即可(老牛同学用的是百炼渠道 Qwen2.5-Coder-32B 大模型)。
下载和装备 Bolt.new
官方供给的 Bolt.new 并不直接支撑本地 LLM 或自定义 API 设置。走运的是,社区牛人coleam00依据官方版别开发了一个增强版——bolt.new-any-llm,该版别不只兼容多种 LLM,还能灵敏装备 API 接口。
- 克隆项目库房:
git clone https://github.com/coleam00/bolt.new-any-llm bolt.new-any-LLM
cd bolt.new-any-LLM
- 装备环境变量:仿制
.env.example
为.env
,然后依据实际情况修正.env
装备文件中的 API 地址和密钥。例如,Ollama 需求设置OLLAMA_API_BASE_URL
参数,国内模型 API 服务,则需求设置OPENAI_LIKE_API_BASE_URL
和OPENAI_LIKE_API_KEY
这 2 个参数。
# 仿制装备文件
cp .env.example .env
然后,翻开.env
装备文件,能够看到支撑的模型列表,包含 GROQ、HuggingFace、Open AI 等,依据需求进行内容修正:
# Ollama装备
OLLAMA_API_BASE_URL=http://localhost:11434
# 【可选】 老牛同学运用的是百炼渠道
OPENAI_LIKE_API_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
OPENAI_LIKE_API_KEY=实在Key内容
阐明:OPENAI_LIKE_API_BASE_URL
和OPENAI_LIKE_API_KEY
意思便是兼容 OpenAI 接口标准的大模型地址和 API Key,目前国内厂商根本都支撑 OpenAPI 接口标准。
Bolt.new 项目布置
为了加速 Node.js 包下载速度,咱们能够设置一下镜像源(老牛同学运用的是淘宝镜像):
npm config set registry https://registry.npmmirror.com
其他镜像源如下列表,请按需挑选:
NPM官方: https://registry.npmjs.org
淘宝镜像: http://registry.npmmirror.com
阿里云镜像: https://npm.aliyun.com
腾讯云: https://mirrors.cloud.tencent.com/npm
华为云: https://mirrors.huaweicloud.com/repository/npm
网易: https://mirrors.163.com/npm
中科大: http://mirrors.ustc.edu.cn
清华: https://mirrors.tuna.tsinghua.edu.cn
然后,咱们履行以下指令来装置依靠并发动 Bolt.new:
# 装置pnpm包管理东西
npm install -g pnpm
# 装置项目依靠包
pnpm install
# 发动Bolt.new
pnpm run dev
发动成功后,咱们能够看到如下输出信息:
>pnpm run dev
> bolt@ dev D:\CodeSpace\bolt.new
> remix vite:dev
➜ Local: http://localhost:5173/
➜ Network: use --host to expose
➜ press h + enter to show help
接下来,咱们开端体会本地化的 Bolt.new!
3. 运用 Bolt.new 进行开发
经过浏览器翻开 Bolt.new 本地地址:http://localhost:5173
首要能够看到如下页面,与官方比较,多了一个Model Settings的选项,在这里咱们能够挑选自己的模型:
咱们能够挑选 Ollama 模型(如上图),也能够挑选装备过OPENAI_LIKE_API测验模型(如老牛同学百炼渠道 API 模型):
挑选完模型,我能够输入咱们的需求:写一个计算器页面
接下来的进程,便是老牛同学上面录制的视频所示了。
Bolt.new 能够依据咱们的一句话内容,主动拆分红不同的小进程:
然后,主动生成完好的项目结构和履行进程,包含文件名等:
在右侧,显现源文件列表和动态展现每个文件生成进程:
终究,一切源代码研制完结,主动布置整个和供给预览:
接下来,假如咱们觉得哪里需求修正、或许有什么报错,直接发问,Bolt.new 会主动进行修正并布置和预览!
4. 总结
Bolt.new只需经过天然语音,就能完结全栈研制和主动布置的才能,关于寻求高效开发和快速交给的团队而言,这是一个值得测验的东西。
友谊提示:关于保密性较高、或数据安全要求较高的项目,经过调用外部大模型 API 服务运用 Bolt.new 东西时,请注意数据安全问题!
Pipeline 使命:
Transformers 结构使命概览:从零开端把握 Pipeline(管道)与 Task(使命)
Transformers 结构 Pipeline 使命详解:文本转音频(text-to-audio 或 text-to-speech)
Transformers 结构 Pipeline 使命详解:文本分类(text-classification)
往期引荐文章:
深化解析 Transformers 结构(一):包和目标加载中的规划巧思与实用技巧
深化解析 Transformers 结构(二):AutoModel 初始化及 Qwen2.5 模型加载全流程
深化解析 Transformers 结构(三):Qwen2.5 大模型的 AutoTokenizer 技能细节
深化解析 Transformers 结构(四):Qwen2.5/GPT 分词流程与 BPE 分词算法技能细节详解
依据 Qwen2.5-Coder 模型和 CrewAI 多智能体结构,完结智能编程体系的实战教程
vLLM CPU 和 GPU 形式署和推理 Qwen2 等大言语模型具体教程
依据 Qwen2/Lllama3 等大模型,布置团队私有化 RAG 知识库体系的具体教程(Docker+AnythingLLM)
运用 Llama3/Qwen2 等开源大模型,布置团队私有化 Code Copilot 和运用教程
依据 Qwen2 大模型微调技能具体教程(LoRA 参数高效微谐和 SwanLab 可视化监控)
ChatTTS 长音频组成和本地布置 2 种方法,让你的“儿童绘本”发声的实战教程