❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦
🚀 快速阅读
- Cofounder 是一个开源的全栈 AI 开发代理,帮助开发者自动生成完整的应用程序。
- Cofounder 提供全栈应用生成、AI 引导的原型设计、模块化设计系统和生成式 UI 等主要功能。
- Cofounder 基于生成式 AI 技术和自然语言处理,解析和理解开发者的需求,生成实际的代码。
正文(附运行示例)
Cofounder 是什么
Cofounder 是开源的全栈 AI 开发代理,能帮助开发者基于单一提示自动生成完整的应用程序,包括后端、前端、数据库和有状态的 Web 应用。Cofounder 基于生成式 AI 技术,提供基于应用架构的 UI、AI 引导的原型设计工具和模块化设计系统,提高开发效率和简化开发流程。Cofounder 全栈构建能力让开发者无需在不同层面的开发工作之间频繁切换,节省开发时间和精力。
Cofounder 的主要功能
- 全栈应用生成:Cofounder 根据用户的提示或需求说明,自动生成包括后端、前端、数据库在内的全栈 Web 应用程序。
- AI 引导的原型设计:提供 AI 辅助的原型设计工具,帮助开发者快速构建应用的初步模型。
- 模块化设计系统:Cofounder 基于模块化设计,让开发者轻松地重用和组合不同的功能模块。
- 生成式 UI:基于应用架构,Cofounder 自动生成用户界面,简化 UI 设计和开发过程。
- 数据库管理:支持数据库层的生成和管理,包括数据结构的定义和数据库的实现。
- API 规范实现:Cofounder 实现 API 规范,如 OpenAPI 和 AsyncAPI,为后端服务提供标准化的接口。
Cofounder 的技术原理
- 生成式人工智能(Generative AI):基于 NLP 和机器学习模型,根据提示生成代码。
- 自然语言处理(NLP):解析和理解开发者提供的描述性语言,识别关键需求。
- 机器学习模型:在代码数据上训练,学习如何生成代码。
- 代码生成算法:将需求转换成实际代码,包括模板匹配和逻辑结构生成。
- 模块化和组件化架构:提高代码复用性和开发灵活性。
- 数据库和 API 自动化:用数据库模式设计技术和 API 规范自动化数据库和 API 生成。
如何运行 Cofounder
安装与初始化
- 打开终端并运行以下命令:
npx @openinterface/cofounder
- 按照提示操作:- 输入你的密钥- 设置目录并开始安装- 启动本地
cofounder/api
构建器和服务器- 打开http://localhost:4200
进入 Web 仪表板,创建新的项目 🎉
# 备注:
# 你将被要求输入 cofounder.openinterface.ai 密钥
# 推荐使用该密钥,因为它可以启用设计布局和外部API等功能
# 并且在当前早期alpha期间没有使用限制
- 你可以通过以下命令直接创建新项目,而不必通过仪表板:
npx @openinterface/cofounder -p "YourAppProjectName" -d "describe your app here" -a "(optional) design instructions"
运行生成的应用程序
- 在
./apps/{YourApp}
目录下打开终端并运行:
npm i && npm run dev
- 安装依赖项后,启动后端和 Vite+React,进入
http://localhost:5173/
打开 Web 应用 🎉 - 在生成的应用程序中,使用 ⌘+K / Ctrl+K 来迭代 UI 组件
注意事项
仪表板与本地 API
如果你稍后继续开发生成的应用程序,需要确保本地
./cofounder/api
服务器正在运行以接收查询。从
./cofounder/api
目录运行以下命令:
npm run start
仪表板将在
http://localhost:4200
打开
并发处理
每个“节点”在
cofounder
架构中有定义好的配置文件,用于处理并发、重试和时间间隔限制。例如,如果你想并行运行多个 LLM 生成任务,可以修改以下配置:
# ./cofounder/api/system/structure/nodes/op/llm.yamlnodes:op:LLM::GEN:desc:"..."in:[model, messages, preparser, parser, query, stream]out:[generated, usage]queue:concurrency:1# 修改这里op:LLM::VECTORIZE:desc:"{texts} -> {vectors}"in:[texts]out:[vectors, usage]mapreduce:trueop:LLM::VECTORIZE:CHUNK:desc:"{texts} -> {vectors}"in:[texts]out:[vectors, usage]queue:concurrency:50
默认的 LLM 并发数设置为
2
,以便逐步查看控制台流中的步骤,但你可以根据 API 密钥的限制进行调整。
资源
❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦
版权归原作者 蚝油菜花 所有, 如有侵权,请联系我们删除。