0


各大模型厂商API使用:百度、阿里、豆包、kimi、deepseek

百度ERNIE(支持requests接口)

ERNIE Speed、ERNIE Lite免费

免费测试下来模型ernie_speed输出吞吐量计算20-30来个,“{length/cost} tokens/s” 输出总长度/耗时
在这里插入图片描述
在这里插入图片描述

https://qianfan.cloud.baidu.com/
文档:
https://cloud.baidu.com/doc/WENXINWORKSHOP/s/dltgsna1o
在这里插入图片描述

apikey获取:
https://console.bce.baidu.com/qianfan/ais/console/applicationConsole/application
创建应用即可获取key
在这里插入图片描述

代码:

json.loads 报错:json loads raise JSONDecodeError(

标签: 百度 大模型

本文转载自: https://blog.csdn.net/weixin_42357472/article/details/139107744
版权归原作者 loong_XL 所有, 如有侵权,请联系我们删除。

“各大模型厂商API使用:百度、阿里、豆包、kimi、deepseek”的评论:

还没有评论