jsdom

    2热度

    1回答

    我正在使用jsdom(在单元测试中)来执行一些脚本,就好像它们在浏览器中一样,除非如果其中一个脚本出现错误,脚本会自动失败。 文档指出回调将返回一个错误数组(如果存在的话),但即使我有错误,我也会返回null。 var jsdom = require('jsdom').jsdom; jsdom.env({ html: '<html><body></body></html>',

    0热度

    1回答

    是否有可能通过jsdom(我使用它与Node.js + JQuery)来获取多行属性的值? 该网站刮包括该HTML: <li><a data-title="<strong>hello world this is a test</strong>" href="example.org</strong>">A link</a></li> 不幸的是,这被解析到 <li><a data-title="

    1热度

    1回答

    我无法获取依赖于JSDom工作Azure的nodejs应用,因为它取决于本地模块 - Contextify,我知道Azure不提供本机编译模块。 然而,根据Azure documentation 由于Windows Azure云服务都依赖于文件夹被部署为应用程序的一部分node_modules,包括任何本机模块的安装模块的一部分,应该在尽可能长的云服务工作因为它是在Windows开发系统上安装和编

    3热度

    1回答

    我看起来像当我通过jsdom运行页面时,页脚本中的$(document).ready块没有被执行。 下面是HTML: <html> <body> If everything works, you should see a message here: <h2 id="msg"></h2> <script> var checkpoint1 = true va

    0热度

    1回答

    我有一个当前是所有客户端的应用程序。 它所做的是当您上传XML文件时,它会生成新元素并使用jQuery将它们放在页面上。 这些元素的内容和内容取决于上传的文件内容。生成元素的格式基本为HTML。 我在移动到服务器端权的过程中,现在使用express.js和的node.js,我无法弄清楚如何做我的客户端去。 特别考虑到您在服务器端使用Jade作为模板。 现在我有这个处理页面: res.render(

    1热度

    1回答

    > node-gyp rebuild d:\csfv\csfv_cms_module\node_modules\jsdom\node_modules\contextify>node "c:\Prog ram Files (x86)\nodejs\node_modules\npm\bin\node-gyp-bin\\..\..\node_modules\nod e-gyp\bin\node

    0热度

    1回答

    JSDOM版本:0.6.5 Nitrous.io云IDE环境 问题观察: 创建一个空的窗口,然后附加一个事件处理失败,异常跟踪: TypeError: Cannot read property 'Node' of undefined at Object.DOMWindow.addEventListener (/home/action/workspace/Projects/nodejs/node

    0热度

    1回答

    我开始使用JSDOM,我有这样的工作是否正常: jsdom.env( '<p><a class="the-link" href="https://github.com/tmpvar/jsdom">jsdom\'s Homepage</a></p>', ["http://127.0.0.1:8080/js/test.js"], function (errors, window) { /

    1热度

    1回答

    更新: 我发现了,我没能在运行jQuery的网页所使用的标签“基地”如果网站包含标签jsdom是行不通的。虽然我不知道为什么。 <base href="http://bbs.18183.com/" /> 为了验证这一点,我创建了一个全新的HTML文件,并把里面,然后jsdom失败。 我目前使用的是Node.js玩耍,读书How to Scrape Web Pages with Node.js

    0热度

    1回答

    我从https://github.com/sylvinus/node-crawler var Crawler = require("crawler").Crawler; var c = new Crawler({ "maxConnections":10, "callback":function(error,result,$) { console.log(resu