当前位置:首页 > AI > 正文内容

Bolt.new 用一句话快速构建全栈使用:本地布置与使用实战(Ollama/Qwen2.5 等)

邻居的猫1个月前 (12-09)AI1262

跟着 AI 编程东西的迅猛发展,从前期的 Code Copilot(代码辅佐)到现在备受瞩意图 Cursor、v0、Windsurf 和 Bolt.new 等全栈开发渠道。这些立异东西旨在加速项目开发、简化作业流程并进步研制功率。但是,拜访这些东西一般依靠于“晓畅的网络”和海外 LLM 模型,在某些情况下或许成为运用这些东西的妨碍。

作为一位大模型的爱好者和学习者,老牛同学今日共享一条不同的途径——怎么运用本地 Ollama 和国内的大模型 API,在本地布置和运用 Bolt.new?

以下是老牛同学录制的本地布置和运用Bolt.new的视频:经过一句话,即可主动完结整个小项意图代码编写和布置预览:微信大众号视频

1. Bolt.new 概览

Bolt.new是由 StackBlitz 推出的一款改造性的 AI 驱动全栈开发渠道,它以几个要害特性锋芒毕露:

  • 即时全栈环境:凭仗 WebContainer 技能,Bolt.new 能够在浏览器中直接运转实在的 Node.js 环境,支撑 npm 包装置、服务器装备及第三方 API 交互,为开发者供给了史无前例的快捷性。
  • 智能 AI 帮手:内置的强壮 AI 功用能够了解并履行杂乱的指令,无论是创立文件、修正代码仍是解决问题,都能明显进步作业功率。特别是其一键修正过错的功用,能够主动处理编译或运转时呈现的问题,极大地节省了时刻。
  • 简易布置流程:集成的谈天界面让用户能够直接上传代码至云端,并挑选适宜的保管服务(如 Vercel)进行布置。生成的应用程序能够经过 URL 轻松共享,促进团队协作和效果展现。

虽然 Bolt.new 带来了许多便当,但也存在一些限制:

  • 缺少版别操控:代码调整或许导致原有版别被掩盖,增加了数据丢掉的危险。
  • 频频从头生成和布置:每次修正需求时,Bolt.new 会从头生成整个代码库并布置,需求较长时刻。

关于快速原型规划和全栈功用开发,Bolt.new 凭仗其完好的开发环境、智能化的辅佐东西和简洁的协作机制,是一个不错的挑选。

2. 本地布置 Bolt.new

预备本地大模型

Bolt.new 底层依靠 LLM,咱们先预备 2 个 LLM 选项:本地运转 Ollama,和 API 调用的长途 LLM 服务(非有必要)

  • 本地 Ollama:关于 Ollama 具体运用教程,请参阅之前文章(Ollama 完好教程),主张下载和发动Qwen2.5-Coder-7B模型:
ollama run qwen2.5-coder:7b
  • LLM 服务 API:Ollama 依靠电脑硬件装备,假如电脑硬件条件有限,咱们还能够直接用户大模型服务 API,只需求兼容 OpenAPI 接口标准即可(老牛同学用的是百炼渠道 Qwen2.5-Coder-32B 大模型)。

下载和装备 Bolt.new

官方供给的 Bolt.new 并不直接支撑本地 LLM 或自定义 API 设置。走运的是,社区牛人coleam00依据官方版别开发了一个增强版——bolt.new-any-llm,该版别不只兼容多种 LLM,还能灵敏装备 API 接口。

  1. 克隆项目库房
git clone https://github.com/coleam00/bolt.new-any-llm bolt.new-any-LLM
cd bolt.new-any-LLM
  1. 装备环境变量:仿制.env.example.env,然后依据实际情况修正.env装备文件中的 API 地址和密钥。例如,Ollama 需求设置OLLAMA_API_BASE_URL参数,国内模型 API 服务,则需求设置OPENAI_LIKE_API_BASE_URLOPENAI_LIKE_API_KEY这 2 个参数。
# 仿制装备文件
cp .env.example .env

然后,翻开.env装备文件,能够看到支撑的模型列表,包含 GROQ、HuggingFace、Open AI 等,依据需求进行内容修正:

# Ollama装备
OLLAMA_API_BASE_URL=http://localhost:11434

# 【可选】 老牛同学运用的是百炼渠道
OPENAI_LIKE_API_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
OPENAI_LIKE_API_KEY=实在Key内容

阐明OPENAI_LIKE_API_BASE_URLOPENAI_LIKE_API_KEY意思便是兼容 OpenAI 接口标准的大模型地址和 API Key,目前国内厂商根本都支撑 OpenAPI 接口标准。

Bolt.new 项目布置

为了加速 Node.js 包下载速度,咱们能够设置一下镜像源(老牛同学运用的是淘宝镜像):

npm config set registry https://registry.npmmirror.com

其他镜像源如下列表,请按需挑选:

NPM官方: https://registry.npmjs.org
淘宝镜像: http://registry.npmmirror.com
阿里云镜像: https://npm.aliyun.com
腾讯云: https://mirrors.cloud.tencent.com/npm
华为云: https://mirrors.huaweicloud.com/repository/npm
网易: https://mirrors.163.com/npm
中科大: http://mirrors.ustc.edu.cn
清华: https://mirrors.tuna.tsinghua.edu.cn

然后,咱们履行以下指令来装置依靠并发动 Bolt.new:

# 装置pnpm包管理东西
npm install -g pnpm

# 装置项目依靠包
pnpm install

# 发动Bolt.new
pnpm run dev

发动成功后,咱们能够看到如下输出信息:

>pnpm run dev

> bolt@ dev D:\CodeSpace\bolt.new
> remix vite:dev

  ➜  Local:   http://localhost:5173/
  ➜  Network: use --host to expose
  ➜  press h + enter to show help

接下来,咱们开端体会本地化的 Bolt.new!

3. 运用 Bolt.new 进行开发

经过浏览器翻开 Bolt.new 本地地址:http://localhost:5173

首要能够看到如下页面,与官方比较,多了一个Model Settings的选项,在这里咱们能够挑选自己的模型:

Bolt.new设置模型

咱们能够挑选 Ollama 模型(如上图),也能够挑选装备过OPENAI_LIKE_API测验模型(如老牛同学百炼渠道 API 模型):

OpenAI接口模型

挑选完模型,我能够输入咱们的需求:写一个计算器页面

接下来的进程,便是老牛同学上面录制的视频所示了。

Bolt.new 能够依据咱们的一句话内容,主动拆分红不同的小进程:

拆分完结进程

然后,主动生成完好的项目结构和履行进程,包含文件名等:

项目结构和进程

在右侧,显现源文件列表和动态展现每个文件生成进程:

源文件列表和内容

终究,一切源代码研制完结,主动布置整个和供给预览:

项目布置和预览

接下来,假如咱们觉得哪里需求修正、或许有什么报错,直接发问,Bolt.new 会主动进行修正并布置和预览!

4. 总结

Bolt.new只需经过天然语音,就能完结全栈研制和主动布置的才能,关于寻求高效开发和快速交给的团队而言,这是一个值得测验的东西。

友谊提示:关于保密性较高、或数据安全要求较高的项目,经过调用外部大模型 API 服务运用 Bolt.new 东西时,请注意数据安全问题!


Pipeline 使命:

Transformers 结构使命概览:从零开端把握 Pipeline(管道)与 Task(使命)

Transformers 结构 Pipeline 使命详解:文本转音频(text-to-audio 或 text-to-speech)

Transformers 结构 Pipeline 使命详解:文本分类(text-classification)

往期引荐文章:

深化解析 Transformers 结构(一):包和目标加载中的规划巧思与实用技巧

深化解析 Transformers 结构(二):AutoModel 初始化及 Qwen2.5 模型加载全流程

深化解析 Transformers 结构(三):Qwen2.5 大模型的 AutoTokenizer 技能细节

深化解析 Transformers 结构(四):Qwen2.5/GPT 分词流程与 BPE 分词算法技能细节详解

依据 Qwen2.5-Coder 模型和 CrewAI 多智能体结构,完结智能编程体系的实战教程

vLLM CPU 和 GPU 形式署和推理 Qwen2 等大言语模型具体教程

依据 Qwen2/Lllama3 等大模型,布置团队私有化 RAG 知识库体系的具体教程(Docker+AnythingLLM)

运用 Llama3/Qwen2 等开源大模型,布置团队私有化 Code Copilot 和运用教程

依据 Qwen2 大模型微调技能具体教程(LoRA 参数高效微谐和 SwanLab 可视化监控)

ChatTTS 长音频组成和本地布置 2 种方法,让你的“儿童绘本”发声的实战教程

微信大众号:老牛同学

扫描二维码推送至手机访问。

版权声明:本文由51Blog发布,如需转载请注明出处。

本文链接:https://www.51blog.vip/?id=346

分享给朋友:

“Bolt.new 用一句话快速构建全栈使用:本地布置与使用实战(Ollama/Qwen2.5 等)” 的相关文章

微服务、容器、DevOps的三角恋

微服务、容器、DevOps的三角恋

0 前语 容器的遍及,带来了微服务架构和DevOps的高速开展。 1 微服务的坏处 1.1 测验、发布作业量剧增 单体运用拆分红多个微服务后,虽能完结快速开发迭代,但带来更大测验和运维布置的本钱。 许多事务前期便是一个大的单体Web运用,测验和运维时,只需把Web运用打WAR包,布置到Tomcat完...

ai写小说,技术革新与文学创作的未来

ai写小说,技术革新与文学创作的未来

当然可以!我可以帮助你创作一篇小说。请告诉我你想要的主题、风格、人物设定、情节概要等,这样我可以更好地为你服务。AI写作小说:技术革新与文学创作的未来一、AI写作小说的兴起背景在互联网时代,信息爆炸使得人们对于文学作品的阅读需求日益多样化。与此同时,传统文学创作方式面临着创作速度慢、题材单一等问题。...

机器学习算法决策树

机器学习算法决策树

决策树(Decision Tree)是一种非常流行的机器学习算法,它通过一系列规则对数据进行分类或回归。决策树是一种监督学习算法,这意味着它需要训练数据来学习如何对数据进行分类或回归。决策树的工作原理如下:1. 首先,选择一个特征作为根节点,该特征将数据分为两个或多个子集。2. 对每个子集重复上述过...

机器学习简史

机器学习简史

机器学习简史机器学习,作为人工智能领域的一个重要分支,其发展历程充满了创新与变革。从最初的探索到如今的广泛应用,机器学习经历了漫长而丰富的演变过程。起源与发展机器学习的起源可以追溯到20世纪50年代。当时,科学家们开始探索如何让计算机具备学习的能力。这一时期,人工智能领域的研究主要集中在逻辑推理和符...

机器学习在线教程,在线教程指南

以下是几个推荐的机器学习在线教程和平台,适合不同层次的学习者:1. w3school 机器学习入门教程: 简介: 这个教程从数学和统计学的基础开始,逐步介绍如何根据数据集计算重要数值,适合初学者。2. 知乎 自学机器学习和深度学习的网站: 简介: 推荐了白板推导系...

matlab 机器学习,探索数据科学的强大工具

matlab 机器学习,探索数据科学的强大工具

Matlab 是一种高级编程语言和交互式环境,广泛用于数值计算、数据分析、科学计算和工程计算。在机器学习领域,Matlab 提供了丰富的工具和函数,可以方便地进行数据预处理、模型训练、模型评估和模型部署。1. 数据预处理:使用 Matlab 的数据预处理工具箱,可以方便地进行数据清洗、数据转换、数据...