Polly
Polly

性别: 浙江 - 杭州 注册于 2021-07-28

向TA求助
36金币数
2300 经验值
1个粉丝
主页被访问 2075 次

最近动态

2024-04-18 17:32 回答问题

   writer = ddb.MultithreadedTableWriter(host="183.134.101.143", port=8911, userId="admin", password="DolphinDB@123", dbPath="",                                           tableName ="getStreamEngine('reactiveDemo')", useSSL=False, enableHighAvailability=F

2024-04-18 16:49 回答问题

因为数据本身是按照分区拆分的,所以查询也会按照分区去读,如果是 TSDB 每个分区下还要按照 level file 读,所以整体存储的顺序是分区-> level file 顺序 -> 数据原本的写入序这样的,如果是查询的时候的话,部分数据可能是 cache 中查询,部分数据可能是 level file 查询,因此内存中也不一定能完全保证有序,建议通过 order by 排序

2024-04-15 17:37 回答问题

持久化流表的数据会定期清理,因此如果要从磁盘上现存的第一条开始订阅,需要通过 getPersistenceMeta 获取 diskOffset 然后从这个 offset 开始订阅;或者订阅流表的时候,设置 persistOffset 参数,持久化保存最新一条已经处理的订阅数据的偏移量。持久化保存的偏移量用于重订阅,可通过 getTopicProcessedOffset 函数获取。

2024-04-15 17:32 回答问题

可以通过 imin 函数获取距离最小的下标: v = [1, 3, 5, 7, 9]target_value = 6v[imin(abs(v - target_value))]

2024-04-15 17:26 回答问题

目前暂未提供 windows 版本的 kafka 插件, kafka 插件依赖这三个库: cppkafka, boost, librdkafka, windows 上装好之后可以自行编译看看。

2024-04-15 14:39 回答问题

重复问题,已忽略。请参照上一条的回答

2024-04-15 14:39 回答问题

注意 TSDB 是每批刷盘的数据会按照 sortColumns 排序。查询时,只保证单个 Level File 内的数据是有序的,Level File 之间的数据顺序不能保证。排序键设置的目的是为了去重,如果要尽量有序可以尝试通过调用 triggerTSDBCompaction 函数手动触发 level file 文件的合并。

2024-04-15 14:34 回答问题

分区方案可以参考一下 https://docs.dolphindb.cn/zh/tutorials/best_practices_for_partitioned_storage.html;内存炸的话确认一下单次写入的数据量大概是多少,因为 TSDB 内部有一些排序、复制、索引创建的操作,可能内存会涨到实际写入的 2-3 倍的;您如果要导入分布式表,建议用 hdf5::loadHDF5Ex 直接写入,这个接口会内部拆分数据,每 512M 写一次的。 另外 chunk.dict 丢失,如果是集群双副本,可以从

2024-04-15 13:55 回答问题

节点日志 1小时左右会自动删除,可以先用find + crontab shell 删除 job log find . -name "*.log" -mmin +720 -exec rm {} \;

2024-04-15 11:51 发起提问