在医疗健康领域,夸克大模型已经可以将问答内容的幻觉率降低至5%,处在行业领先水平。
夸克大模型利用数据、平台、知识增强等优势,可以大幅提升知识正确性。在医疗健康领域,夸克大模型已经可以将问答内容的幻觉率降低至5%,处在行业领先水平。
在大模型领域中,所谓的“幻觉”是指大模型在回答问题时会出现答非所问的情况。用户最直观的感受就是大模型在胡说八道。如果是在聊天、创意等场景下,面对这种情况还能勉强接受。但如果是在查询健康、学习等知识时,幻觉率太高会让人觉得大模型不靠谱。
“夸克大模型是面向搜索、生产力工具和资产管理助手的应用型大模型。”夸克技术负责人蒋冠军表示,基于在搜索和知识图谱领域的多年积累,我们在解决幻觉问题时有一定优势。最后在通过知识增强,基本可以让幻觉率处在可控且能用的状态。
具体来说,解决大模型幻觉率过高可以通过以下四种手段。第一,在预训练阶段,投入更多的时间和精力,进行语料基础数据处理,做数据准确性的校验。第二,和人类对齐,夸克大模型对于SFT人工标注样本的准确率要求非常高。基于搜索技术,可以反向对大模型的输出做知识校验。第三,改进模型,模型参数的增加,对降低幻觉也有一定帮助。最后,使用知识增强,用一个外部的知识数据来解决当前的模型数据问题。
清华大学新闻学院教授、博士生导师沈阳表示,大模型要减少错误率,一个重要的措施就是要跟搜索引擎进行协同。比如,夸克在搜索场景下累积了很多数据和知识,这对于降低大模型的错误率有很大的帮助。
要解决大模型的应用问题,关键要解决知识正确性问题,夸克在一系列知识题目评测中均有优秀的表现。数据显示,夸克大模型接连登顶C-Eval和CMMLU两大权威评测榜单,多项性能优于GPT-4。另外,在最新的百亿参数测试集中,夸克同样在法律、医疗、问答等多个领域中排名第一,夸克大模型在不同参数量级的对比中均表现优秀。
网友评论