可以用fomat函数处理一下,例如: t=table(1 as id,10071.18 as val)saveText(select id,format(val,"0.00") as val from t,"/root/double1.csv")
回答于 2021-08-23 10:14
批量插入数据建议用Java API效率会更高一些,Mybatis可以尝试配置JDBC连接DolphinDB
回答于 2021-08-21 18:10
单节点模式因为排版原因,web上显示指标做了简化,目前可以通过执行下列脚本来获得对应的指标值: select maxLast10QueryTime,maxLast10QueryTime from getClusterPerf()
回答于 2021-08-18 16:35
对于这个场景,这个表用dolphindb的keyedTable(键值内存表)来实现,计算还是用流数据来实现,计算结果更新的这个键值内存表。前端展示从这个键值内存表读数据。
回答于 2021-08-18 10:51
loadTextEx这个算法用到了两个线程,一个线程在不停的解析csv,另一个线程在不停的往数据库写数据。如果你用submitJob启动多个数据加载任务,那会使用更多的cpu核。 关于cpu核和线程之间的关系,dolphinb本身没有限制,完全取决于用户的设置,workerNum,localExecutors,batchWorkerNum, webWorkerNum,subExecutors,这...
回答于 2021-08-18 10:21
可以直接用corr函数: corr(t.x, t.y) //这里假设t是一个内存表
回答于 2021-08-17 09:47
用conditionalFilter试试: symbol=`a`a`a`b`b`b`c`c`corder_id=1 2 3 1 2 3 1 2 3 A = table(symbol, date,order_id)order_id = 1 2 3 1 2 4 1 2 4B =table(symbol, date,order_id)timer(1000) {filter1= dict(STRING, ANY)filter1.dictUpdate!(append!, A.symbol, A.order_id, x->array(x.type(), 0, 512).append!(x)...
回答于 2021-08-12 15:13
each返回值是个矩阵,矩阵的列类型不能是字符串,可以改用loop函数: t=table(1..3 as id,["a,b,c","d,e,f","g,h,i"] as val)select id,loop(split{,","},val) as `col1`col2`col3 from t 显示t的值如下: 若是这些列的增加到t,可以如下所示: t[`col1`col2`col3]=loop(split{,","},t.val)
回答于 2021-08-04 16:28
all=array(STRING).append!(a).append!(b).append!(c)
回答于 2021-08-03 14:32