stringtokenizer

    2热度

    1回答

    StringTokenizer tokenizer = new StringTokenizer(s, " ,.:;?![]'"); 有没有办法检索分隔符,在这种情况下,所有的标点符号? 例如,“这是一个测试,也是一个测试呢?” 我想令牌化的结果还包括两个令牌,并且? 这可能吗?

    2热度

    1回答

    当我在for循环中使用时,countTokens()方法返回3而不是5。 \t public static void main(String[] args) { \t \t String s = "foo1,foo2,foo3,foo4,foo5"; \t \t StringTokenizer tokenizer = new StringTokenizer(s, ","); \t

    0热度

    1回答

    我在包含'SMITH,ALLEN,WARD,JONES'的表中有一个字段。我试图用光标从表中读取行,当找到这个特定的字段时,使用regexp_substr将它分割为','作为分隔符。 下面是代码: PROCEDURE x26837a_dummy IS CURSOR d_cursor IS SELECT regexp_substr('SMITH,ALLEN,WARD,JONES'

    0热度

    1回答

    我正在使用StringTokenizer来标记txt文件的行。我正在寻找这些特定字词 - '儿子'。我怎样才能防止“十四行诗”这个词被退回? 见下面的代码中提取: String searchWord = "son"; StringTokenizer st = new StringTokenizer(text,".?!,^"); if(text.contains(searchWord)){

    0热度

    2回答

    我有一个文件可以读取,并且使用这段代码,我成功地完成了我的JUnit测试。如您所见,我将String行作为参数传递给readPrevisione(...)方法。 package oroscopo.persistence; import java.io.BufferedReader; import java.io.IOException; import java.io.Reader; im

    -3热度

    3回答

    我有这样的问题.StringTokenizer比java中的空白分隔方法做什么更好。根据Class StringTokenizer 如何使用split方法而不是使用StringTokenizer更好。

    0热度

    1回答

    我试图使用.java文件中的条件来查找所有条件(我假定该文件只包含正确的指令)。 它应该计算所有的“如果”,但不包括那些与评论或锯齿串作为字符串的内容。 我试图用StringTokenizer来解决这个问题,但我不知道在“//”符号和字符串与“”绑定在一起后是如何省略的。“是否有可能通过这种方式来实现这个问题? public int getIfCount() { int counter

    0热度

    2回答

    我正在尝试使用StringTokenizer并使用String输入内的元素填充2个堆栈。我试图使用嵌入在while循环中的两个if循环将正确类型的标记填充到它们各自的堆栈中。我正在努力如何真正设置一个条件来确定类型。这是迄今为止我所拥有的。 Stack numbers = new Stack(); Stack operators = new Stack(); StringTokenizer t

    -3热度

    1回答

    我在寻找是否有人将文本行分割为空白区域中的大小不等的块。具体来说,我正在构建一个函数,它需要一个字符串和数量的块。目标是分割的每一行都有相同数量的字符,或尽可能接近(所有行之间的字符增量尽可能接近0)。例如,如果字符串是: 文本=“Lorem存有悲坐阿梅德,consectetur adipiscing ELIT前庭augue SAPIEN,VARIUS狮子座VEL,tincidunt lobort

    0热度

    2回答

    我想分割一个字符串(用'|'或','分隔的分隔字符串)。我用fn:tokenize来实现这个。考虑下面的示例文本,其中我有4列文本,其中第3列中的值与分割模式的值相同。 fn:tokenize("column1|column2|||column4", "|") 上面的代码的结果是给我5个值,其中2是空的: column1 column2 column4 我还试图与添加引号栏3值,这也是