2017-09-07 19 views
0

我在使用R.utils::withTimeout()时遇到了一些问题。它似乎根本没有把超时选项设置为acount,或者只是有时候。下面的功能我想用:withTimeout不起作用?

scrape_player <- function(url, time){ 

    raw_html <- tryCatch({ 
    R.utils::withTimeout({ 
     RCurl::getURL(url) 
    }, 
    timeout = time, onTimeout = "warning")} 
) 

    html_page <- xml2::read_html(raw_html) 
} 

现在,当我使用它:

scrape_player("http://nhlnumbers.com/player_stats/1", 1)

,要么工作正常,我得到的html页面我想,还是我得到一个错误信息,告诉我认为已经达到了时间限制,或者,这是我的问题,需要很长时间,超过1秒才能最终返回错误500的html页面。

不应该RCurl::getURL()尝试只有1秒(在这个例子中)t o获取html页面,如果没有,只需返回警告?我错过了什么?

回答

0

好吧,我做了一个解决方法:不是返回页面,而是将它写入磁盘。不能解决Timeout似乎不起作用的问题,但至少我看到我将页面写入磁盘,缓慢而确定。