load-csv

    0热度

    2回答

    我正在使用加载csv操作将关系加载到Neo4j中的图形db中。节点已经创建。我有四种不同类型的关系可以从四个不同的CSV文件(文件1 - 59关系,文件2 - 905关系,文件3 - 173,000关系,文件4 - 超过100万个关系)创建。密码查询执行得很好,但是文件1(59个关系)需要25秒才能执行,文件2需要6.98分钟,文件3从过去2小时开始仍在继续。鉴于neo4j处理数百万关系的能力,我

    0热度

    1回答

    我是neo4j的noob,我的问题看起来很简单。 我有CSV文件,其结构如下: Id是Person ID,Fam是项目ID,此人参与其中。 如果他们在同一个项目上工作,我想连接人员。 这种情况下最好的数据模型是什么?首先让我想到的是使id - 节点和Fam标签。但我不知道如何将多个标签加载到一个节点。 其次是将id和Fam作为节点,然后进行查询以显示相关员工。 对于第二种情况的代码将是这样的: L

    2热度

    1回答

    我想使用neo4j-rest java api将大量数据从csv导入到neo4j。为了避免内存不足异常,我使用定期提交,所以一个示例Java代码将是: // just to let you know what classes I am using import org.neo4j.rest.graphdb.query.CypherTransaction; import org.

    0热度

    1回答

    我有这段从另一个站点加载csv的代码。 LOAD CSV FROM 'https://www.quackit.com/neo4j/tutorial/genres.csv' AS line CREATE (:Genre { GenreId: line[0], Name: line[1]}) 但是当我上传同样的CSV我的github帐户,并尝试它,它给了我一个错误。 LOAD CSV FROM

    1热度

    2回答

    我尝试使用与头负载CSV到以下节点加载到Neo4j的命令: id label name 0 Person Dave 1 Person Boris 2 Person Rita 3 Person Daniel 4 Person Papa 5 Person Mama 我的Excel的表保存为: CSV UTF-8 (Comma delimited) (*.csv) 和文件的位置是:在

    0热度

    2回答

    我使用下面的查询加载从CSV数据的Neo4j: CREATE CONSTRAINT ON (e:Entity) ASSERT e.entity IS UNIQUE; USING PERIODIC COMMIT 1000 LOAD CSV WITH HEADERS FROM 'file:/file1.csv' AS line FIELDTERMINATOR '|' WITH line

    1热度

    1回答

    我有一组节点使用file_A创建,其中包含与每个节点的'id'列。它一直使用这个暗号查询(在Java中)创建: USING PERIODIC COMMIT 1000 LOAD CSV WITH HEADERS FROM 'file:file_A' AS line FIELDTERMINATOR '\t' CREATE (c:Node {nodeId:line.id}) 现在我还有一个文件(

    0热度

    1回答

    我刚开的Neo4j开始的所有节点,我试图使用LOAD CSV与下面的脚本将一些数据加载到Neo4j的3.1: USING PERIODIC COMMIT 1000 LOAD CSV WITH HEADERS FROM "file:///Fake59.csv" AS line MERGE (person:Person {firstName: line.GivenName, middleIniti

    3热度

    1回答

    我看过Nicole White的真棒youtube“Using LOAD CSV in the Real World”,并决定使用相同的方法重新创建neo4j数据。 我已经克隆了她在这个主题上的git repo,并且一直在我的Mac上为社区版本的neo4j开发这个例子。 我正在通过load.cql文件一次将每个命令粘贴到命令窗口中。 事情很顺利 - 我有一堆创建的节点。为了处理 主文件中sub_p

    1热度

    1回答

    我有一个csv格式的航班数据库,其中包含日期和航班号。 date flight 01-01-2011 12:00 428 02-01-2011 12:00 428 03-01-2011 12:00 428 01-01-2011 12:00 429 02-01-2011 12:00 429 03-01-2011 12:00 429 因此,