從上圖可以看到,對於INIT模型對於source domain和target domain均使用相同的word embedding,然後利用target label data在pre-training的model(BLSTM+CRF)進行fine-tuining得到目標鄰域的模型。而MULT則是利用multi-task learning,根據source domain和target domain data同時訓練source model和target model,而其除CRF層外其它參數共享。而上述這兩種模型均存在以下三種缺點:
因此針對上述三類問題,作者在原始的BiLSTM+CRF的基礎上分別增加了word adaptation layer,sentence adaptation layer和output adaptation layer,最終取得了更優的結果,如下: