2
我有一堆函数清理文本并将它们分成单词。最小示例:斯卡拉链函数与和类型不匹配
val txt = "Mary had a @little \nlamb"
val stopwords = Seq("a")
def clean(text: String): String = text.replaceAll("\n*\r*", "")
def tokenize(text: String): Seq[String] = text.split("\\s")
val cleaned = clean(txt)
val tokens = tokenize(cleaned)
此代码按预期工作。但不是真正的惯用。 我希望做到这一点:
clean(txt) andThen tokenize
但是,编译器会抱怨这与在令牌化功能错误type mismatch; required: Char => ?
。
我在这里错过了什么?
有趣,我明白了。不知道eta扩展。我有一些阅读要做:)。 – Tim