出现问题的情况是这样的,首先维度表是一个9列的表,然后第一次插入的数据是6列(前6列,少于9列),如果第二次插入的数据小于6列且数据内容和前面插入的数据有重复,就会出现上述问题。如果插入的数据大于等于6列就不会出现问题。如果第二次插入的数据5列(小于6列)且数据内容和前面插入的数据不重复,就会写入成功,后面...
回答于 2023-03-06 15:51
”,“逻辑的实现,whereConditions的写法: whereConditions = [<symbol=`MSFT>,<volume>x>] “and”逻辑的实现,whereConditions的写法: whereConditions = [<symbol=`MSFT and volume>x>]
回答于 2022-01-07 16:24
DolphinDB可使用内存限制: (1)节点config设置的maxMemSize参数 (2)license限制的节点可使用内存 (3)物理机物理内存 如果config设置的maxMemSize参数小于等于license限制的节点可使用内存和物理机物理内存,那么当加载到内存的数据大于maxMemSize时,系统就会抛出Out of memory的提示,此时该任务执行失败,这个...
回答于 2021-08-06 15:20
1.30.13版本以前,分布式表连接有以下限制: 1. 如果左表和右表都是分布式表: 两个表必须位于同一个数据库中。 连接列必须包含所有分区列。连接列亦可包含非分区列。 不支持cross join. 2. 如果只有右表是分布式表,则只能使用equal join. 3. 如果左表是分布式表 ,右表是维度表或内存表,则不支持full join. 当分布...
回答于 2021-08-06 15:16
可以进行空值数据类型的转换,例子如下: select * from t where a=string(NULL) 结果:
回答于 2021-08-05 17:12
可以在配置文件中配置maxLogSize的值来控制节点运行日志的归档大小。 maxLogSize的说明: 当日志文件达到指定大小(单位为MB)时,系统会将日志文件存档。默认值是1024,最小值是100。 原日志文件名添加前缀作为存档的文件名。前缀的格式为<date><seq>。例如,20181109000有三位数字,从000开始。 单机sing...
回答于 2021-07-21 18:28
基本解决思路: (1)通过setStreamTableFilterColumn函数设置流数据表的过滤列 (2)创建n个相同处理动作的handler(metrics相同的流数据引擎) (3)创建n个订阅,订阅目标是上述设置过滤列的streamTable,每隔订阅通过hash过滤订阅部分数据,同时指定到不同的线程处理 demo例子如下: def sum_diff(x, y){ retu...
回答于 2021-07-21 17:49
例如first、sum等聚合函数输出的是标量,不是聚合计算的就是向量。 示例代码如下: t = table(`a as id, 2010.01.01 as date) a = exec id from t typestr(a) //STRING VECTOR b = exec first(id) from t typestr(b) //STRING
回答于 2021-07-13 20:51
目前,DolphinDB的分布式表不支持在创建后修改字段类型。 解决方案: (1)创建一个新的修改字段类型后的分布式表 (2)将旧的分布式表的数据在线同步过来,首先分批次读到一个内存表中,可以通过下面的脚本进行内存表数据类型的内存转换 sym = `C`MS`MS`MS`IBM`IBM`C`C`C price= 49.6 29.46 29.52 30.02 174.97 175.23...
回答于 2021-07-09 11:39
可能会出现这个情况。DolphinDB的convertEncode函数支持字符串编码的转换。 示例如下: convertEncode("高性能分布式时序数据库","utf-8","gbk"); convertEncode(["hello","DolphinDB"],"gbk","utf-8");
回答于 2021-07-01 09:56