0
我在使用R.utils::withTimeout()
时遇到了一些问题。它似乎根本没有把超时选项设置为acount,或者只是有时候。下面的功能我想用:withTimeout不起作用?
scrape_player <- function(url, time){
raw_html <- tryCatch({
R.utils::withTimeout({
RCurl::getURL(url)
},
timeout = time, onTimeout = "warning")}
)
html_page <- xml2::read_html(raw_html)
}
现在,当我使用它:
scrape_player("http://nhlnumbers.com/player_stats/1", 1)
,要么工作正常,我得到的html页面我想,还是我得到一个错误信息,告诉我认为已经达到了时间限制,或者,这是我的问题,需要很长时间,超过1秒才能最终返回错误500的html页面。
不应该RCurl::getURL()
尝试只有1秒(在这个例子中)t o获取html页面,如果没有,只需返回警告?我错过了什么?