t = 2016.12.30T09:00:01.000100001 nanotimestamp(t / 1000000000 * 1000000000) + iif(nanosecond(t) > 500000000, 500000000, 0)
回答于 6天前
若数据的时间精度为纳秒,如 NANOTIMESTAMP(yyyy-MM-dd HH:mm:ss.nnnnnnnnn) 类型,且 roundTime = true,则引擎的规整的 alignmentSize 规则如下,对于您的场景其规整的 alignmentSize 位 1 min。根据规整规则: 第一个数据窗口的左边界的计算规则为:nanotimestamp(t0/alignmentSize*alignmentSize+step-windowSize), 由...
回答于 6天前
字典可以多key同时进行修改,由于 {} 形式的 json 会在 DDB 中解析成一个 STRING->ANY 字典,因此只需要把字典的 value 转成 STRING 类型即可,可以通过下属脚本进行修改 header[header.keys()]=string(header.values())
回答于 2024-05-10 11:03
您可以尝试将 results = {} 修改为 results = dict(STRING, DOUBLE),因为 results={} 在 DDB 中对应的是 STRING->ANY Dict
回答于 2024-05-07 15:47
根据您提供的脚本,我写了一个参考方案: ids = [1, 44, 55] itemValues = [ '{"itemId":"a34013","avg":4.55}{"itemId":"a21026","avg":9.56}{"itemId":"a01011","avg":58.36}', '{"itemId":"w21026","avg":77.01}{"itemId":"w563","avg":19.156}', '{"itemId":"e5","avg":377.21}{"itemId":"g45","avg":14...
回答于 2024-05-07 15:35
可以这样写: writer = ddb.MultithreadedTableWriter(host="183.134.101.143", port=8911, userId="admin", password="DolphinDB@123", dbPath="", tableName ="getStreamEngine('reactiveDemo')", useSSL=False, enableHighAvailability=False, highAvailabilitySites=[], ...
回答于 2024-04-18 17:32
因为数据本身是按照分区拆分的,所以查询也会按照分区去读,如果是 TSDB 每个分区下还要按照 level file 读,所以整体存储的顺序是分区-> level file 顺序 -> 数据原本的写入序这样的,如果是查询的时候的话,部分数据可能是 cache 中查询,部分数据可能是 level file 查询,因此内存中也不一定能完全保证有序,建议...
回答于 2024-04-18 16:49
持久化流表的数据会定期清理,因此如果要从磁盘上现存的第一条开始订阅,需要通过 getPersistenceMeta 获取 diskOffset 然后从这个 offset 开始订阅;或者订阅流表的时候,设置 persistOffset 参数,持久化保存最新一条已经处理的订阅数据的偏移量。持久化保存的偏移量用于重订阅,可通过 getTopicProcessedOffset 函数获...
回答于 2024-04-15 17:37
可以通过 imin 函数获取距离最小的下标: v = [1, 3, 5, 7, 9]target_value = 6v[imin(abs(v - target_value))]
回答于 2024-04-15 17:32