0


文心一言,通营销之学,成一家之言,百度人工智能AI大数据模型文心一言Python3.10接入

“文心”取自《文心雕龙》一书的开篇,作者刘勰在书中引述了一个古代典故:春秋时期,鲁国有一位名叫孔文子的大夫,他在学问上非常有造诣,但是他的儿子却不学无术,孔文子非常痛心。

一天,孔文子在山上遇到了一位神仙,神仙告诉他:“你的儿子之所以不学无术,是因为你没有给他灌输文心,让他懂得文学的魅力和意义。”孔文子听后深受启发,回家后开始给儿子灌输文学知识,儿子也逐渐对学问产生了兴趣,最终成为了一位有学问的人。因此,刘勰在书中将“文心”解释为“灌输文学知识的心灵”之意。

百度以“文心”命名自己的AI产品线,可见其对自己的中文处理能力是极为自信的,ERNIE3.0对标ChatGPT3.5/4.0,ERNIE-ViLG对标Stable-Diffusion,文心PLATO则可以理解为ChatGPT的embedding,可谓是野心勃勃。

文心一言SDK引入

百度目前已经开源文心一言的sdk工具包:

  1. pip3 install --upgrade wenxin-api

和百度云产品线一样,安装好以后,需要去文心一言官网获取appkey和appsecret

随后编写请求逻辑:

  1. import wenxin_api
  2. from wenxin_api.tasks.free_qa import FreeQA
  3. wenxin_api.ak = "your ak" #输入您的API Key
  4. wenxin_api.sk = "your sk" #输入您的Secret Key
  5. input_dict = {
  6. "text": "问题:天为什么这么蓝?\n回答:",
  7. "seq_len": 512,
  8. "topp": 0.5,
  9. "penalty_score": 1.2,
  10. "min_dec_len": 2,
  11. "min_dec_penalty_text": "。?:![<S>]",
  12. "is_unidirectional": 0,
  13. "task_prompt": "qa",
  14. "mask_type": "paragraph"
  15. }
  16. rst = FreeQA.create(**input_dict)
  17. print(rst)

程序返回:

  1. {
  2. "code": 0,
  3. "msg": "success",
  4. "data": {
  5. "result": "因为我们有个好心情",
  6. "createTime": "2023-03-16 16:02:10",
  7. "requestId": "71a6efb46acbd64394374f44579a01eb",
  8. "text": "天为什么这么蓝",
  9. "taskId": 1000000,
  10. "status": 1 # 0表示生成中,1表示生成成功
  11. }
  12. }

请求的参数含义请参照官方文档:

  1. async
  2. 异步标识 int 1
  3. 1
  4. 异步标识,现阶段必传且传1
  5. text
  6. 用户输入文本 string
  7. [1, 1000]
  8. 模型的输入文本,为prompt形式的输入。
  9. min_dec_len
  10. 最小生成长度 int 1
  11. [1,seq_len]
  12. 输出结果的最小长度,避免因模型生成END导致生成长度过短的情况,与seq_len结合使用来设置生成文本的长度范围。
  13. seq_len
  14. 最大生成长度 int 128
  15. [1, 1000]
  16. 输出结果的最大长度,因模型生成END或者遇到用户指定的stop_token,实际返回结果可能会小于这个长度,与min_dec_len结合使用来控制生成文本的长度范围。
  17. topp
  18. 多样性 float 1.0
  19. [0.0,1.0],间隔0.1
  20. 影响输出文本的多样性,取值越大,生成文本的多样性越强。
  21. penalty_score
  22. 重复惩罚 float 1.0
  23. [1,2]
  24. 通过对已生成的token增加惩罚,减少重复生成的现象。值越大表示惩罚越大。设置过大会导致长文本生成效果变差。
  25. stop_token
  26. 提前结束符 string
  27. 预测结果解析时使用的结束字符串,碰到对应字符串则直接截断并返回。可以通过设置该值,可以过滤掉few-shot等场景下模型重复的cases
  28. task_prompt
  29. 任务类型 string PARAGRAPH,
  30. SENT, ENTITY,
  31. Summarization, MT,
  32. Text2Annotation,
  33. Misc, Correction,
  34. QA_MRC, Dialogue,
  35. QA_Closed_book,
  36. QA_Multi_Choice,
  37. QuestionGeneration,
  38. Paraphrasing, NLI,
  39. SemanticMatching,
  40. Text2SQL,
  41. TextClassification,
  42. SentimentClassification,
  43. zuowen, adtext,
  44. coupletnovel,
  45. cloze
  46. 指定预置的任务模板,效果更好。 PARAGRAPH:引导模型生成一段文章; SENT:引导模型生成一句话; ENTITY:引导模型生成词组; Summarization:摘要; MT:翻译; Text2Annotation:抽取; Correction:纠错; QA_MRC:阅读理解; Dialogue:对话; QA_Closed_book: 闭卷问答; QA_Multi_Choice:多选问答; QuestionGeneration:问题生成; Paraphrasing:复述; NLI:文本蕴含识别; SemanticMatching:匹配; Text2SQL:文本描述转SQLTextClassification:文本分类; SentimentClassification:情感分析; zuowen:写作文; adtext:写文案; couplet:对对联; novel:写小说; cloze:文本补全; Misc:其它任务。
  47. typeId
  48. 模型类型 int 1 1
  49. 通用:
  50. 1 ERNIE 3.0 Zeus 通用
  51. 2 ERNIE 3.0 Zeus instruct模型
  52. 同义改写
  53. 1 ERNIE 3.0 Zeus 同义改写精调模型
  54. 写作文:
  55. 1 ERNIE 3.0 Zeus 记叙文增强包
  56. 2 ERNIE 3.0 Zeus 议论文增强包
  57. 3 ERNIE 3.0 Zeus 小学作文增强包
  58. 写文案:
  59. 1 ERNIE 3.0 百亿 社交短文案精调模型
  60. 2 ERNIE 3.0 Zeus 商品营销文案增强包
  61. 写摘要:
  62. 1 ERNIE 3.0 Zeus 写摘要
  63. 2 ERNIE 3.0 Zeus 写标题
  64. 3 ERNIE 3.0 百亿 写标题
  65. 对对联:
  66. 1 ERNIE 3.0 Zeus 对对联
  67. 2 ERNIE 3.0 百亿 对对联
  68. 自由问答:
  69. 1 ERNIE 3.0 Zeus 自由问答增强包
  70. 2 ERNIE 3.0 百亿 自由问答
  71. 3 ERNIE 3.0 Zeus instruct模型
  72. 写小说
  73. 1 ERNIE 3.0百亿 写小说精调模型
  74. 补全文本
  75. 1 ERNIE 3.0 Zeus 词补全增强包
  76. 2 ERNIE 3.0 Zeus 句补全增强包
  77. 3 ERNIE 3.0 Zeus 段落补全增强包
  78. penalty_text
  79. 惩罚文本 string
  80. 模型会惩罚该字符串中的token。通过设置该值,可以减少某些冗余与异常字符的生成。
  81. choice_text
  82. 候选文本 string
  83. 模型只能生成该字符串中的token的组合。通过设置该值,可以对某些抽取式任务进行定向调优。
  84. is_unidirectional
  85. 单双向控制开关 int 0
  86. 01
  87. 0表示模型为双向生成,1表示模型为单向生成。建议续写与few-shot等通用场景建议采用单向生成方式,而完型填空等任务相关场景建议采用双向生成方式。
  88. min_dec_penalty_text
  89. 最小惩罚样本 string
  90. 与最小生成长度搭配使用,可以在min_dec_len步前不让模型生成该字符串中的tokens
  91. logits_bias
  92. 屏蔽惩罚 float -10000
  93. [1, 1000]
  94. 配合penalty_text使用,对给定的penalty_text中的token增加一个logits_bias,可以通过设置该值屏蔽某些token生成的概率。
  95. mask_type
  96. 生成粒度 string word
  97. 可选参数为word, sentence, paragraph
  98. 设置该值可以控制模型生成粒度。

这里需要注意的是,虽然参数支持async异步,但那不是指请求的异步方式返回,换句话说,文心模型返回还是需要等待的,并不是ChatGPT那种流式返回模式。

文心一言API调用

文心一言SDK的功能有限,也不支持异步请求调用,如果需要定制化或者使用别的语言请求文心一言,需要提前发起Http请求获取token,这里我们使用异步请求库httpx:

  1. pip3 install httpx

添加获取token逻辑:

  1. class Winxin:
  2. def chat(self,text):
  3. input_dict = {
  4. "text": f"问题:{text}\n回答:",
  5. "seq_len": 512,
  6. "topp": 0.5,
  7. "penalty_score": 1.2,
  8. "min_dec_len": 2,
  9. "min_dec_penalty_text": "。?:![<S>]",
  10. "is_unidirectional": 0,
  11. "task_prompt": "qa",
  12. "mask_type": "paragraph"
  13. }
  14. rst = FreeQA.create(**input_dict)
  15. print(rst)
  16. async def get_token(self):
  17. headers = {"Content-Type":"application/x-www-form-urlencoded"}
  18. async with httpx.AsyncClient() as client:
  19. resp = await client.post(f"https://wenxin.baidu.com/moduleApi/portal/api/oauth/token?grant_type=client_credentials&client_id={wenxin_api.ak}&client_secret={wenxin_api.sk}",headers=headers)
  20. result = resp.json()
  21. print(result)

异步调用文心一言接口的token:

  1. if __name__ == '__main__':
  2. wx = Winxin()
  3. asyncio.run(wx.get_token())

程序返回:

  1. {'code': 0, 'msg': 'success', 'data': '24.3f6a63545345ae6588ea86a353.86400000.1679123673218.92a99f8955c6f9ab2c438a5f31b5d73b-173001'}

这里返回的数据的data就是token,有效期是一天,吐槽一下,居然没有refreshtoken,也就是说过期了还得重新去请求,不能做到无感知换取。

随后请求接口换取taskid:

  1. async def get_task(self,token,text):
  2. url = "https://wenxin.baidu.com/moduleApi/portal/api/rest/1.0/ernie/3.0.25/zeus"
  3. data = {"async": 1, "typeId": 1, "seq_len": 512, "min_dec_len": 2, "topp": 0.8, "task_prompt": "qa", "penalty_score": 1.2, "is_unidirectional": 0, "min_dec_penalty_text": "。?:![<S>]", "mask_type": "word","text":text}
  4. headers = { "Content-Type": "application/x-www-form-urlencoded" }
  5. params = { "access_token": token }
  6. async with httpx.AsyncClient() as client:
  7. result = client.post(url, headers=headers, params=params, data=data)
  8. result = result.json()
  9. print(result)

返回:

  1. {
  2. "code":0,
  3. "msg":"success",
  4. "data":{
  5. "taskId": 1229202,
  6. "requestId":"7fad28872989e274914ee1687b8f2a13"
  7. }
  8. }

最后请求结果:

  1. async def get_res(self,taskid,token):
  2. url = "https://wenxin.baidu.com/moduleApi/portal/api/rest/1.0/ernie/v1/getResult"
  3. access_token = token
  4. task_id = taskid
  5. headers = { "Content-Type": "application/x-www-form-urlencoded" }
  6. params = { "access_token": access_token }
  7. data = { "taskId": task_id }
  8. async with httpx.AsyncClient() as client:
  9. response = client.post(url, headers=headers, params=params, data=data)
  10. print(response.text)

结果和SDK请求方式一致:

  1. {
  2. "code": 0,
  3. "msg": "success",
  4. "data": {
  5. "result": "因为我们有个好心情",
  6. "createTime": "2023-03-16 18:09:40",
  7. "requestId": "71a6efb46acbd64394374f44579a01eb",
  8. "text": "天为什么这么蓝",
  9. "taskId": 1000000,
  10. "status": 1 # 0表示生成中,1表示生成成功
  11. }
  12. }

文心一格文字生成图像

ERNIE-ViLG AI作画大模型:文心ERNIE-ViLG2.0 是基于用户输入文本、或文本加图片生成图像及图像编辑功能的技术,主要为用户提供跨模态的文本生成图像的大模型技术服务。

文心一格和文心一言是共享appkey和appsecret的,添加图像生成逻辑:

  1. class Winxin:
  2. def draw(self,text):
  3. num = 1
  4. input_dict = {
  5. "text": "国画,工笔画,女侠,正脸",
  6. "style": "工笔画",
  7. "resolution":"1024*1024",
  8. "num": num
  9. }
  10. rst = TextToImage.create(**input_dict)
  11. print(rst)

程序返回:

  1. {
  2. "imgUrls":[
  3. "https://wenxin.baidu.com/younger/file/ERNIE-ViLG/61157afdaef4f0dfef0d5e51459160fbex"
  4. ]
  5. }

效果:

对比基于Stable-Diffusion算法的Lora模型:

大家丰俭由己,各取所需。

需要注意的是,该产品线并不是免费的:

免费送200张,想继续玩就得充值,不愧是百度。话说免费的Stable-Diffusion不香吗?

结语

产品力而言,ChatGPT珠玉在前,文心一言还有很长的路需要走,用三国时期徐庶自比孔明的话来讲:“驽马焉敢并麒麟,寒鸦岂能配凤凰”。但是,也没必要一片挞伐之声,俄国著名作家契诃夫曾经说,“大狗叫,小狗也要叫”,ChatGPT虽然一座遥不可及的高峰,但是其他公司也无须放弃人工智能领域的研究,毕竟作为最老牌的中文搜索引擎,百度浸润几十年的中文处理能力,还是无人能出其右的。


本文转载自: https://blog.csdn.net/zcxey2911/article/details/129622878
版权归原作者 刘悦的技术分享 所有, 如有侵权,请联系我们删除。

“文心一言,通营销之学,成一家之言,百度人工智能AI大数据模型文心一言Python3.10接入”的评论:

还没有评论