从上图可以看到,对于INIT模型对于source domain和target domain均使用相同的word embedding,然后利用target label data在pre-training的model(BLSTM+CRF)进行fine-tuining得到目标邻域的模型。而MULT则是利用multi-task learning,根据source domain和target domain data同时训练source model和target model,而其除CRF层外其它参数共享。而上述这两种模型均存在以下三种缺点:
因此针对上述三类问题,作者在原始的BiLSTM+CRF的基础上分别增加了word adaptation layer,sentence adaptation layer和output adaptation layer,最终取得了更优的结果,如下: