是的,目前loadRecord是要求STIRNG/SYMBOL字段必须以0结尾,若长度不足,需在最后补0达到指定长度。
回答于 2022-10-20 14:49
用元编程的方式可实现,示例如下: t=table(2015.01.05 as date,2015.01.05T09:30:00 as datetime,1.0 as `000001,2.0 as `000002,3.0 as `000003)sql(select =sqlCol(t.colNames()[2:],max),from =t,groupBy=sqlCol(`date)).eval() 执行后,输出如下所示: date 000001 000002 000003 2015.01.05 1 2 3
回答于 2022-10-05 20:44
是单节点吗?把dolphindb.cfg中第一行(默认是localSite=localhost:8848:local8848)中的localhost改成容器的ip地址试试?
回答于 2022-09-27 14:15
是的,创建分区表时必须传入一个table,但建表时只会使用这个 table 的结构,并不会把 table 中的数据插入到新的分区表中。 用create的写法如下所示,详细说明请参阅https://www.dolphindb.cn/cn/help/SQLStatements/create.html create table "dfs://test"."pt"( id INT, deviceId SYMBOL, date DATE[com...
回答于 2022-08-25 11:50
你是什么操作的脚本? 大多数情况是找不回的,但若是查询,开启了集群性能监控,就可在节点工作日志中找到,工作日志文件包含了每个节点执行查询的描述性信息。工作日志文件的默认文件夹是 log 文件夹,默认名称是 nodeAlias_job.log
回答于 2022-08-18 15:47
DolphinDB目前支持OLAP引擎和TSDB引擎,2个引擎引擎均采用数据分区技术,按照给定规则将大规模数据集水平分区,每个分区内的数据采用列式存储。 OLAP 数据表的每个列存储为一个文件,数据以追加的方式存储到相应的列文件中,因此,数据写入的顺序决定了它们的存储顺序。 TSDB 采用经典的 LSMT (Log Structured Merge Tree...
回答于 2022-08-14 23:31
方法1: 1.先在linux系统商安装unzip解压缩包 2.调用dolphindb的files得到目录下zip文件 3.调用dolphindb的shell命令 unzip 文件 4. 调用loadText或loadTextEx导入数据 方法2.: 写个插件函数可解压zip文件,类似zlib · dolphindb/DolphinDBPlugin - 码云 - 开源中国 (gitee.com)
回答于 2022-08-04 20:47
请重新安装grafana插件,安装方法参见:grafana-datasource/README.zh.md at master · dolphindb/grafana-datasource · GitHub。
回答于 2022-08-03 09:53
请检查一下执行脚本的GUI客户端是否与server在同一台主机上? saveTable后的文件是保持在服务器上。
回答于 2022-08-01 09:00