我目前正在使用 Tensorflow Seq2seq 模型,试图实现情感分析。我的想法是用 IMDB 注释输入编码器,用 [Pad] 或 [Go] 输入解码器,用 [neg]/[pos] 输入目标。我的大部分代码与 seq2seq 翻译示例非常相似。但是我得到的结果很奇怪。对于每个批次,结果要么全部为 [neg],要么全部为 [pos]。

由于这个结果很特殊,我想知道有没有人知道会导致这种事情?

最佳答案

我建议尝试使用更简单的架构 - RNN 或 CNN 编码器,用于输入逻辑分类器。该架构在情感分析(亚马逊评论、yelp 评论等)上显示出非常好的结果。

对于此类模型的示例,您可以 see here - 单词和字符的各种编码器(LSTM 或卷积)。

关于python - TensorFlow 实现 Seq2seq 情感分析,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/36666358/

10-12 18:03