【持续学习系列(四)】《Lifelong-RL》
一、论文信息
1 标题
Lifelong-RL: Lifelong Relaxation Labeling for Separating Entities and Aspects in Opinion Targets
2 作者
Lei Shu, Bing Liu, Hu Xu, and Annice Kim
3 研究机构
- Department of Computer Science, University of Illinois at Chicago, USA
- Center for Health Policy Science and Tobacco Research, RTI International, USA
二、主要内容
这篇论文旨在解决意见挖掘中的一个重要问题:将意见目标(opinion targets)分为实体(entities)和方面(aspects)。意见目标可以是实体(如产品或服务的整体)或实体的某个方面(如产品的特性或属性)。为了有效地进行意见挖掘,需要区分这些目标,因为它们代表了关于意见的不同方面。论文提出了一种新的算法Lifelong-RL,该算法基于终身机器学习和松弛标签(relaxation labeling)来解决这个问题。
三、相关研究
相关研究包括目标提取方法、情感分类、转移学习、多任务学习以及终身机器学习。这些研究为本文提供了理论基础和方法论支持。
四、解决方案
松弛标签算法(Relaxation Labeling, RL)
输入:
- 图 G = ( V , E ) G = (V, E) G=(V,E),其中 V V V 是节点集合, E E E 是边集合。
- 每个节点 t i ∈ V t_i ∈ V ti?∈V 与一个多项式分布 P ( L ( t i ) ) P(L(t_i)) P(L(ti?)) 相关联,表示标签 L ( t i ) L(t_i) L(ti?) 的概率。
- 每条边 ( t i , t j ) ∈ E (t_i, t_j) ∈ E (ti?,tj?)∈E 与两个条件概率分布 P ( L ( t i ) ∣ L ( t j ) ) P(L(t_i)|L(t_j)) P(L(ti?)∣L(tj?)) 和 P ( L ( t j ) ∣ L ( t i ) ) P(L(t_j)|L(t_i)) P(L(tj?)∣L(ti?)) 相关联,表示标签 L ( t j ) L(t_j) L(tj?) 对标签 L ( t i ) L(t_i) L(ti?) 的影响以及反之。
计算过程:
- 初始化每个节点的标签分布 P 0 ( L ( t i ) ) P_0(L(t_i)) P0?(L(ti?))。
- 对于每个迭代 r r r,计算每个节点的标签分布的变化量 Δ P r + 1 ( L ( t i ) ) ΔP_{r+1}(L(t_i)) ΔPr+1?(L(ti?)),根据邻居节点的标签和条件概率分布。
- 更新每个节点的标签分布 P r + 1 ( L ( t i ) ) P_{r+1}(L(t_i)) Pr+1?(L(ti?)),直到收敛。
输出:
- 每个节点的最终标签 L ( t i ) L(t_i) L(ti?),即其最高概率的标签。
数学公式:
-
Δ
P
r
+
1
(
L
(
t
i
)
)
ΔP_{r+1}(L(t_i))
ΔPr+1?(L(ti?)) 的计算公式:
Δ P r + 1 ( L ( t i ) ) = ∑ t j ∈ N e ( t i ) w ( t j ∣ t i ) ? ∑ y ∈ Y ( P ( L ( t i ) = y , L ( t j ) = y ) ? P r ( L ( t j ) = y ) ) \Delta P_{r+1}(L(t_i)) = \sum_{t_j \in Ne(t_i)} w(t_j|t_i) \cdot \sum_{y \in Y} (P(L(t_i) = y, L(t_j) = y) \cdot P_r(L(t_j) = y)) ΔPr+1?(L(ti?))=tj?∈Ne(ti?)∑?w(tj?∣ti?)?y∈Y∑?(P(L(ti?)=y,L(tj?)=y)?Pr?(L(tj?)=y)) - 更新后的标签分布
P
r
+
1
(
L
(
t
i
)
)
P_{r+1}(L(t_i))
Pr+1?(L(ti?)) 的计算公式:
P r + 1 ( L ( t i ) ) = P r ( L ( t i ) ) ( 1 + Δ P r + 1 ( L ( t i ) ) ) ∑ y ∈ Y P r ( L ( t i ) = y ) ( 1 + Δ P r + 1 ( L ( t i ) = y ) ) P_{r+1}(L(t_i)) = \frac{P_r(L(t_i))(1 + \Delta P_{r+1}(L(t_i)))}{\sum_{y \in Y} P_r(L(t_i) = y)(1 + \Delta P_{r+1}(L(ti) = y))} Pr+1?(L(ti?))=∑y∈Y?Pr?(L(ti?)=y)(1+ΔPr+1?(L(ti)=y))Pr?(L(ti?))(1+ΔPr+1?(L(ti?)))? - 最终标签
L
(
t
i
)
L(t_i)
L(ti?) 的选择:
L ( t i ) = arg?max ? y ∈ Y P ( L ( t i ) = y ) L(t_i) = \argmax_{y \in Y} P(L(t_i) = y) L(ti?)=y∈Yargmax?P(L(ti?)=y)
终身机器学习(Lifelong Machine Learning, LML)
输入:
- 知识库(Knowledge Base, KB),包含过去任务中提取的图和分类结果。
- 当前任务的图 G ′ = ( V ′ , E ′ ) G' = (V', E') G′=(V′,E′) 和节点的初始标签分布。
计算过程:
- 使用过去任务中的知识来帮助当前任务的标签分布初始化。
- 利用过去任务中的目标标签来调整当前任务的初始标签概率分布。
- 结合松弛标签算法进行迭代更新,直到收敛。
输出:
- 当前任务中每个节点的最终标签。
数学公式:
- 初始化概率分布
P
0
(
L
(
t
i
)
)
P_0(L(t_i))
P0?(L(ti?)) 的更新:
P L L 1 , 0 ( L ( t ) ) = P d u + 1 , 0 ( L ( t ) ) + λ ? C D s L ( t ) D + λ D P_{LL1,0}(L(t)) = P_{du+1,0}(L(t)) + \lambda \cdot \frac{CDs_{L(t)}}{D + \lambda D} PLL1,0?(L(t))=Pdu+1,0?(L(t))+λ?D+λDCDsL(t)?? - 条件概率分布
P
(
L
L
1
)
(
L
(
t
i
)
∣
L
(
t
j
)
)
P(LL1)(L(t_i)|L(t_j))
P(LL1)(L(ti?)∣L(tj?)) 的更新:
P L L 2 ( L ( t i ) ∣ L ( t j ) ) = P L L 1 ( L ( t i ) ∣ L ( t j ) ) + λ ? C D s L ( t i ) , L ( t j ) D + λ D P_{LL2}(L(t_i)|L(t_j)) = P_{LL1}(L(t_i)|L(t_j)) + \lambda \cdot \frac{CDs_{L(t_i), L(t_j)}}{D + \lambda D} PLL2?(L(ti?)∣L(tj?))=PLL1?(L(ti?)∣L(tj?))+λ?D+λDCDsL(ti?),L(tj?)??
这里, λ \lambda λ是一个控制参数,用于调整过去知识对当前任务影响的强度。 C D s L ( t ) CDs_{L(t)} CDsL(t)?和 C D s L ( t i ) , L ( t j ) CDs_{L(ti), L(tj)} CDsL(ti),L(tj)?分别表示过去任务中目标 t t t被标记为 L ( t ) L(t) L(t)和目标 t i t_i ti? 和 t j t_j tj? 同时被标记为 L ( t i ) L(t_i) L(ti?) 和 L ( t j ) L(t_j) L(tj?) 的领域数量。 D D D是过去任务的总数。
五、实验环节
论文使用两个数据集进行实验:一组包含8个注释的评论数据集,用于计算精确度、召回率和F1分数;另一组包含100个不同产品或领域的未标记评论数据集,作为过去领域数据在终身机器学习中的处理。实验结果表明,Lifelong-RL方法显著优于基线方法。
六、进一步探索点:
论文指出,虽然实验结果很有前景,但还有进一步的探索空间,例如如何更有效地利用知识库中的信息,以及如何提高算法在不同领域中的泛化能力。
七、总结
论文提出了一种新的算法Lifelong-RL,用于在意见挖掘中区分实体和方面。通过结合松弛标签算法和终身机器学习,该方法在实验中表现出色,显著提高了目标分类的准确性。这项工作为意见挖掘领域提供了一种新的思路和方法。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!