一个让AI“更聪明”的新尝试
发布时间:2022-04-13 09:42:15 文章来源:阿里云
当前位置: 主页 > 资讯 > 国内 > 正文

如何将人类知识注入预训练模型,让知识和数据有机融合,一直是AI研究中的难题。

近日,达摩院首次利用半监督学习将标注的人类知识注入预训练对话模型,在MultiWOZ2.1等三个国际主流对话数据集中均实现了最佳效果,提升幅度明显,为知识和数据融合探索出新路径。

达摩院新模型在三大国际数据集上的表现

01

什么是预训练模型

预训练模型是AI近年来重要的发展趋势,其打破了传统模型通用性差的制约,可做到举一反三,解决多种任务。

常见的预训练模型有预训练语言模型,可以出题让AI写高考作文;预训练多模态模型,可以给到文字让AI生成图片。

而预训练对话模型还需要考虑对话过程中的策略,如:对话轮次、上下文情境、对话人员的角色等,以便理解对方意图并做出恰当回复。

打个比方,在凌晨时分提问AI“明天天气如何”,AI根据理解作出的回答通常是当日天亮后的天气,而非客观事实上的“明天”。

对话特有的属性总结

经过快速发展,业内已成功构建出万亿参数的大模型。但不少研究者认为,数据量只是一方面,如果能将人类知识有机注入预训练模型,AI有望像人类一样思考。

不过,这并不容易。由于知识数量级远小于无标注数据,简单混合容易导致知识被淹没,或者出现严重的过拟合。

02

AI模型的基本训练方法

目前,预训练模型的主流训练方法还是以有监督学习和自监督学习为主,半监督学习更多是配合有监督学习,用于减少数据标注、降低成本等场景。

有监督预训练:存在有标数据进行指导,所学出的特征对某些相关下游任务更加适配,但是却严重依赖人工标注;

自监督预训练:可不再受到人工标注的局限,利用海量无标数据进行学习,但学习成果更多是普适的语义表示。

半监督预训练:从迁移学习的角度来看,可以认为是一个前两种范式的自然延伸,可以充分利用有限的标注知识和大量的无标数据。

此次,达摩院研究人员将半监督学习和自监督学习进行融合,在预训练对话模型中实现了这一创新工作,相关论文已被AAAI2022接收。

半监督使用示意图

03

达摩院的半监督预训练建模方案

构建知识库:

达摩院构建了目前最大的对话动作标签知识库,用于刻画对话策略,总量达97万轮次;

SPACE 1.0模型:

此外,达摩院还设计了新型预训练对话模型SPACE 1.0,采用 encoder+decoder 架构,预训练的目标既包含了传统的建模对话理解和对话生成的自监督 loss,也包含了建模对话策略的半监督 loss。

达摩院使用的半监督训练方法

新模型在斯坦福 In-Car,剑桥MultiWOZ2.0和亚马逊 MultiWOZ2.1这三个国际主流对话数据集上均实现了SOTA(最佳效果),部分提升超过5%,幅度较大。

在具体案例中,新模型能够更准确预测出对话动作,能够更好和人类进行对话,避免答非所问。

一轮完整的对话过程

达摩院资深算法专家李永彬表示,这项工作还只是起步,如何将更多的人类标注知识通过半监督的方式注入到预训练模型中、如何让模型自动选择合适的知识、如何更好评价知识注入的效果,还需要体系化的探索和创新。

目前,SPACE 1.0模型已应用于阿里云智能客服等产品,对外输出服务客户。据艾瑞咨询最近发布的《2022年中国对话式AI行业发展白皮书》,阿里云智能客服已领跑中国对话式AI行业。

标签: 监督学习 对话模型

最近更新

关于我们| 广告报价| 本站动态| 联系我们| 版权所有| 信息举报|

联系邮箱:905 144 107@qq.com

同花顺经济网 豫ICP备20014643号-14

Copyright©2011-2020  www.thxxww.com   All Rights Reserved