因为TradingDate在分布式表中是以升序存储,如果数据量大的话,使用order by做个降序排列会比较耗时。 可以使用context by + limit -1,取每只股票最新时间。 timer result = select * from t1 where TradingDate between 2015.12.20 : 2016.01.20 context by Symbol order by TradingDate limit -1 或者,使用last函数...
回答于 2021-10-16 11:18
可以以表1作为最终结果模板,因为表1除了Timestamp列均为空,可以将表1比表2多出来的列取出,再添加到表2,并调整顺序。示例代码如下: Timestamp = 2014.01.06T09:30:03.000 2014.01.06T09:30:06.000 2014.01.06T09:30:09.000 2014.01.06T09:30:12.000 2014.01.06T09:30:15.000 2014.01.06T09:30:18.000 2014.01.06T09:30...
回答于 2021-10-16 11:15
Kafka 插件教程中有个例子,可以参照这种写法。 Kerberos 相关字段名可以参照教程中链接查询。Kafka 插件教程:kafka/README.md · dolphindb/DolphinDBPlugin - Gitee
回答于 2021-10-06 22:06
可以使用分区内存表并行加速,代码优化如下: def alpha147SQL(vector) { ... } input = select tradingdate, symbol, closeprice from loadTable("dfs://shenwan", "level2") where tradingdate = 2020.01.02 db = database("", HASH, [SYMBOL, 20]) pt = db.createPartitionedTable(input, "input", `symbol) pt.appen...
回答于 2021-10-06 21:46
我们测试了下,使用HDF 官方HDFView 也无法打开您给的h5 文件。 pandas 会用特殊格式保存dataframe 到h5,建议在to_hdf5()函数内加上参数format="table", data_columns=True 生成通用的h5文件再尝试下。这里有些相关讨论,您可以看下:https://stackoverflow.com/questions/30773073/save-pandas-dataframe-using-h5py-fo...
回答于 2021-09-21 13:52
def olss(x, y) { return ols(x, y)[1] } def alpha147SQL(vector) { n = 12 sequence = 1..n mean_12 = mavg(vector, 12) return moving(olss{, sequence}, mean_12, 12) } pt = select tradingdate, symbol, closeprice from loadTable("dfs://test", "test") where tradingdate = 2021.01.02 alpha147DDBSql = se...
回答于 2021-09-21 13:48
ploadText导入后的顺序与CSV文件一致的。如果CSV文件中数据是按Time列递增,导入后可以使用 isMonotonicIncreasing() 函数验证下。
回答于 2021-09-10 20:44
控制台打印没有时间戳,难以确定是否是备份时报的这个错误。确认是否成功备份的话可以使用loadBackup 这个函数验证一下。
回答于 2021-09-10 20:42
可以先做个聚合计算。 通常绘图组件不会绘制几百万的数据量,这样下载数据和渲染数据都会耗费非常大量的时间,常规做法是将数据源降精度,比如将秒级数据降为分钟数据。 timer avgSpread = select avg((ofr-bid)/(ofr+bid)*2) as avgSpread from quotes where date=2007.08.31, symbol=`LEH, time between 09:30:00 : 15:...
回答于 2021-09-10 20:40