我目前正在使用 Tensorflow Seq2seq 模型,试图实现情感分析。我的想法是用 IMDB 注释输入编码器,用 [Pad] 或 [Go] 输入解码器,用 [neg]/[pos] 输入目标。我的大部分代码与 seq2seq 翻译示例非常相似。但是我得到的结果很奇怪。对于每个批次,结果要么全部为 [neg],要么全部为 [pos]。
由于这个结果很特殊,我想知道有没有人知道会导致这种事情?
最佳答案
我建议尝试使用更简单的架构 - RNN 或 CNN 编码器,用于输入逻辑分类器。该架构在情感分析(亚马逊评论、yelp 评论等)上显示出非常好的结果。
对于此类模型的示例,您可以 see here - 单词和字符的各种编码器(LSTM 或卷积)。
关于python - TensorFlow 实现 Seq2seq 情感分析,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/36666358/