Wit.ai'理解'选项卡允许我们训练不同意图(特质实体)的短语。然而,不清楚如何训练相同的词组,但在不同的情况下。如何训练wit.ai相同的短语,但在不同的情况下?
例如,短语“是”可以用作针对不同问题的答案,但取决于上下文,其意图可能不同。
- “想买牛奶吗? - >是(意味着我的积极意愿购买牛奶)
- “我应该给你发收据吗?” - >是(现在的目的是允许发送收据)
Wit.ai'理解'选项卡允许我们训练不同意图(特质实体)的短语。然而,不清楚如何训练相同的词组,但在不同的情况下。如何训练wit.ai相同的短语,但在不同的情况下?
例如,短语“是”可以用作针对不同问题的答案,但取决于上下文,其意图可能不同。
在Wit可以得到它之前,您将不得不添加几个例子。转到Undestanding部分来做到这一点。
你也应该处理是/否回答在故事标签与基于流的方法。
请看处理是/否回答副标题在https://wit.ai/docs/recipes#converse-link。你会发现这个例子很有帮助。
祝您有愉快的一天。
我以前遇到过这个问题。
我训练了“是”这个短语,使intent
为refer_back
。这基本上意味着每当用户说“是”时,智慧告诉我的后端参考机器人发送的最后一条消息(问题)。
现在,这个问题显然是由你写的(对于机器人问),所以你可以用一个ID标记问题来确定用户说是的。
switch (lastQuestion.id) {
case 1: getSomeMilk(); break;
case 2: ...
}
当然,这只适用于如果您有一个自定义后端,使API调用智能和处理用户交互。
这个策略对我来说工作得很好,希望能给你一些想法。
是的,它是有道理的。所以事实证明,你积累了所有传入的智慧信息(标记它们)并将它们存储在会话中。对?所以我看到不幸的是我们需要做一些这些额外的后端处理。谢谢@ user3794496 –
@ A.N是的,所以你需要一些方法来跟踪哪个问题的答案,所以有一点额外的工作。别客气! –
谢谢@GokcanD给你回答!但是我的问题实际上并不是正确理解是和不是变化,而是预测正确的行动要求相同的“是”答案,但在不同的情况下。例如,如果用户同意购买牛奶,那么机器人会说“这是您的牛奶”,但是当用户同意通过输入相同的“是”获得收据时,现在答案机器人会说“这是您的收据”。机智可能会混淆这两个是的答案。 –