2017-02-16 34 views
0

Wit.ai'理解'选项卡允许我们训练不同意图(特质实体)的短语。然而,不清楚如何训练相同的词组,但在不同的情况下。如何训练wit.ai相同的短语,但在不同的情况下?

例如,短语“是”可以用作针对不同问题的答案,但取决于上下文,其意图可能不同。

  • “想买牛奶吗? - >是(意味着我的积极意愿购买牛奶)
  • “我应该给你发收据吗?” - >是(现在的目的是允许发送收据)

回答

0

在Wit可以得到它之前,您将不得不添加几个例子。转到Undestanding部分来做到这一点。

enter image description here

你也应该处理是/否回答在故事标签与基于流的方法。

请看处理是/否回答副标题在https://wit.ai/docs/recipes#converse-link。你会发现这个例子很有帮助。

祝您有愉快的一天。

+0

谢谢@GokcanD给你回答!但是我的问题实际上并不是正确理解是和不是变化,而是预测正确的行动要求相同的“是”答案,但在不同的情况下。例如,如果用户同意购买牛奶,那么机器人会说“这是您的牛奶”,但是当用户同意通过输入相同的“是”获得收据时,现在答案机器人会说“这是您的收据”。机智可能会混淆这两个是的答案。 –

0

我以前遇到过这个问题。

我训练了“是”这个短语,使intentrefer_back。这基本上意味着每当用户说“是”时,智慧告诉我的后端参考机器人发送的最后一条消息(问题)。

现在,这个问题显然是由你写的(对于机器人问),所以你可以用一个ID标记问题来确定用户说是的。

switch (lastQuestion.id) { 
    case 1: getSomeMilk(); break; 
    case 2: ... 
} 

当然,这只适用于如果您有一个自定义后端,使API调用智能和处理用户交互。

这个策略对我来说工作得很好,希望能给你一些想法。

+0

是的,它是有道理的。所以事实证明,你积累了所有传入的智慧信息(标记它们)并将它们存储在会话中。对?所以我看到不幸的是我们需要做一些这些额外的后端处理。谢谢@ user3794496 –

+0

@ A.N是的,所以你需要一些方法来跟踪哪个问题的答案,所以有一点额外的工作。别客气! –

相关问题