科技观察丨给百度文心一言和用户的四点建议

大众日报记者 汤代禄

2023-03-01 10:08:32 发布来源:大众报业·大众日报客户端

记者采用百度文心一格绘制

2月最后一天28日晚,百度发布了官方预告称:“百度计划于3月16日14时在北京总部召开新闻发布会,主题围绕文心一言。”预示着基于大规模语言模型的智能聊天机器人文心一言,在国内也将与大家见面。文心一言是对标ChatGPT的同类智能聊天机器人,因此在ChatGPT大火的当下,文心一言也备受期待。

2月应该是百度比较忙碌的一个月。月初,7日,百度对外宣布大规模语言模型生成式AI产品取名为文心一言。有意思的是,就在同一天凌晨,大洋彼岸的谷歌发布了同类智能聊天机器人Bard,次日微软发布基于OpenAI模型的NewBing。月中一个浪漫的日子,14日,众多媒体和头部企业宣布接入文心一言。22日发布百度2022年度财报时,已有超过400多家企业机构加入文心一言生态圈,其中就包括160多家媒体。大众报业集团大众日报客户端、海报新闻、齐鲁壹点、半岛新闻等新媒体平台也陆续加入。月底最后一天,百度预告了文心一言的主题发布会。

在充满期待的3月,记者有四点建议。

建议文心一言在教育领域保持审慎的态度。上线三个月的ChatGPT,目前对教育科研领域产生了不小的影响,甚至有的观点认为带来了混乱。主要表现在相当高比例的学生使用ChatGPT做作业,掺杂了AI内容的作业已经不能完整真实地反映学生的学习情况。因此,特别是对国内中小学生在账号注册、使用内容等环节,建议文心一言作出适当的使用限定。众多学术期刊也已禁止将ChatGPT列为作者,因此文心一言在学术研究、论文写作等领域,也需要研究执行一套合理的使用规范。

建议文心一言在传媒领域开展更深入的合作。这类大规模语言模型的算法大都包含一段复杂的隐藏层运算环节,因此在内容的输出上具有一定的不确定性。这样就会形成潜在的内容风险。作为专业内容机构的主流媒体,核心专业素养之一就是对内容准确性、真实性的专业把关,这与大规模语言模型输出内容所存在的潜在风险正好形成互补,可以大大降低内容风险。而且主流媒体的广泛使用,也便于文心一言进入主流舆论声势。

建议普通用户对文心一言多点包容之心。俗话说期望越高失望越大。上线初期的文心一言,大概率会被广大用户发现各种各样的问题。广大用户应该坚持一种更包容的心态。文心一言至少在国内实现了从无到有,为国人争了一口气。大洋彼岸的Meta,谷歌、微软等发布的Galactica、Bard、NewBing等同类AI产品,都遭遇了网友的“口诛笔伐”,有的甚至被迫下线。欲达高峰,必忍其痛,希望文心一言能忍其痛,承其重。

建议普通用户在熟悉的内容领域内使用。包括ChatGPT在内的各种大规模语言模型智能聊天机器人,目前都存在信息不准、信息缺失等问题。原因在于这些模型的内在机理是采用了一定量级的参数和数据进行近似模拟的训练,输出还属于近似值,不是精确值。因此在使用这类智能聊天机器人时,尽量输出自己熟悉领域的内容,方便识别信息内容的真伪。否则可能被误导还觉察不出来。

(大众日报客户端记者 汤代禄 报道)

责任编辑: 张晨     签审: 吴永功

评论:
提交评论

备案号 鲁ICP备11011784号  互联网新闻信息许可证编号:37120180020

Dazhong News Group(Da Zhong Daily)    大众报业集团(大众日报社)    版权所有    联系电话:0531-85193690