scrape

    0热度

    1回答

    试图做一些有点棘手的问题,我为给定的关键字设置了一个回显的颜色,这是从网页抓取收集的。我被给了一次答案,但无法真正改变任何颜色。这是我正在使用的代码。 <?php $doc = new DOMDocument; // djia/nas/sp current values $doc->preserveWhiteSpace = false; // Most HTML Developers

    -1热度

    1回答

    如何使用Python的scrapy 我已经抓取的谷歌新闻内容抓取谷歌新闻抓取谷歌新闻网页.. 它是如何使任务

    1热度

    1回答

    所以我正在尝试使用PHP抓取可能性,并且我想对正在回显的数据更精确一些。下面的代码是实现此输出:道指所有的时间,屡创新高的关闭:2017年6月14日,(21,374.56) <?php // weather forecast los angeles $doc = new DOMDocument; // We don't want to bother with white spaces

    -2热度

    1回答

    我正在学习Web Scraping(使用Python和Beautiful Soup)以及遇到如何在包含循环的函数中抓取数据的问题。我想要得到的数据是,如果,else语句的条件中,如下图所示(以下页面源代码) 我想放弃。“密码:h7s6sh” **<SCRIPT> function passWord() { var testV = 1; var pass1 = prompt('Please E

    0热度

    1回答

    我有以下删节的代码导航到网页并填写搜索框。但是,我不明白如何填充搜索框,因为类名被嵌入到输入元素中。如果您有任何见解,请告诉我。谢谢。 Dim ie, results As Object Dim pagenumber, pagetotal, r, s As Long Dim finrawebpage As HTMLDocument Dim searchterm As HTMLElementC

    1热度

    1回答

    因为工作原因,我在使用“driver = webdriver.PhantomJS()”之前能够刮掉以下网站。我所刮的是价格和日期。 https://www.cash.ch/fonds/swisscanto-ast-avant-bvg-portfolio-45-p-19225268/swc/chf 这停止工作前几天,由于我有起初同意免责声明页面。 https://www.cash.ch/fonds-

    -1热度

    1回答

    我在http://www.ulta.com/makeup-eyes-eyebrows?N=26yi上刮所有产品的详细信息。我的规则复制如下。我只从第一页获得数据,而不会进入下一页。 rules = (Rule(LinkExtractor( restrict_xpaths='//*[@id="canada"]/div[4]/div[2]/div[3]/div[3]/div[2]/ul/l

    1热度

    1回答

    我从亚马逊刮取一些数据,然后将这些数据插入到4列表中。但是当我试图将这些列表插入数据库时​​,我只是得到一个类型错误: TypeError: not all arguments converted during string formatting 但是所有的数据都是字符串格式。我尝试使用元组,但它不工作。 # Importing Requests and BeautifulSoup Modul

    0热度

    1回答

    我想向https://www.apartments.com发出POST请求,但我无法获得任何回复。以下是我迄今写: import requests payload = {'t': '13555 SW Jenkins Rd, Beaverton, OR 97005', 'l': [-79.55213, 40.3322]} r = requests.post("https://www.apartm

    0热度

    1回答

    我对编程非常陌生,需要一些关于我的代码的帮助/反馈。 我的目标是刮我的数据,它工作正常,然后将数据显示给我的用户在编号列表中。我只是很难显示这些数据。我没有收到任何错误,我的程序完全跳过了我的方法。预先感谢任何帮助/反馈! class BestPlaces::Places attr_accessor :name, :population, :places @@places =