社区小伙伴反馈在实践文章《使用图数据库 Nebula Graph 数据导入快速体验知识图谱 OwnThink》时,遇到了一些问题,Nebula Graph 将在本文对该文章中出现的问题进行 Debug。
报错信息:panic: yaml: line 14: mapping values are not allowed in this contex
使用 nebula-importer 时,报错: panic: yaml: line 14: mapping values are not allowed in this contex
<br />这个错误原因是 config.yaml 文件里的第一个** ****- path**
字段没对齐,更改方式是在第一个 - path
字段前面加个空格。该错误在最新打包的 oss 包里已经更正。更改之后的配置文件可去 GitHub (链接:https://github.com/jievince/rdf-converter/blob/master/rdf-import.yaml)或者直接复制下面信息。
version: v1rc1
description: example
clientSettings:
concurrency: 10 # number of graph clients
channelBufferSize: 128
space: test
connection:
user: user
password: password
address: 127.0.0.1:3699
logPath: ./err/test.log
files:
- path: ./vertex.csv
failDataPath: ./err/vertex.csv
batchSize: 100
type: csv
csv:
withHeader: false
withLabel: false
schema:
type: vertex
vertex:
tags:
- name: entity
props:
- name: name
type: string
- path: ./edge.csv
failDataPath: ./err/edge.csv
batchSize: 100
type: csv
csv:
withHeader: false
withLabel: false
schema:
type: edge
edge:
name: relation
withRanking: false
props:
- name: name
type: string
报错信息:writing tcp 127.0.0.1... write: broken_pipe
使用 nebula-importer 导数据的过程中,报 writing tcp 127.0.0.1... write: broken_pipe
错误信息,这个报错是 Nebula Graph 的一个 bug 导致,已在本次 rc2 (预发布)更新包内修复,请去 GitHub (链接:) 下载。
占用内存过高
在部分低配置机器上内存不够的问题,原默认配置针对 64 GB 以上内存的机型。更改了默认 partition 数量, 默认 wal 文件大小和 wal buffer 大小。pr 见:https://github.com/vesoft-inc/nebula/pull/1330
storage 启动过慢,报 Internal error,或者报端口占用
当有大量数据时,storage 突然 failover 后,存在启动过程数据加载过慢,报 Internal error,或者报端口占用的等问题,目前已被修复。pr 见:https://github.com/vesoft-inc/nebula/pull/1341
其他修复信息
- 修复了 storage client 在获取 leader 信息时小概率 crash 的问题,pr 见:https://github.com/vesoft-inc/nebula/pull/1342
- 修复了 meta client 在大压力写入的情况下的同时 drop space 小概率 crash 的问题,pr 见:https://github.com/vesoft-inc/nebula/pull/1340
最后,附上 Nebula Graph GitHub 地址:https://github.com/vesoft-inc/nebula,如果你在使用 Nebula Graph 过程中遇到任何问题,欢迎 GitHub 联系我们或者加入微信交流群,请联系微信号:NebulaGraphbot