分组方法: hours = [2023.01.02 09:00:00, 2023.01.02 10:00:00, 2023.01.02 11:00:00, 2023.01.02 13:00:00, 2023.01.02 14:00:00 ,2023.01.02 15:00:00,2023.01.02 17:00:00] v=volumeBar( (next(hours)-hours)/3600 - 1 ,1) 得到v的值为offset 0 1 2 3 4 5 6 0 0 0 0 1 1 1 2 再定义一个字典,替换分组序号为自定...
回答于 2024-04-30 09:52
target_stock_syn 是一个table。建议用exec,例如 target_stock_syn = exec syn from data where SecurityID = "000001" 这样得到的是一个标量或者一个向量。 若是向量,下面的语句中syn != target_stock_syn 改成 syn not in target_stock_syn
回答于 2024-04-30 09:13
思路: 1. 使用context + having + rank 过滤出每天涨幅前5的股票 2. 使用pivot by 转换成截面(宽表)模式 date = stretch(2024.01.01..2024.01.10, 100)sym = take("A"+string(0..9), 100)incPersent = rand(1.0, 100)t = table(date, sym, incPersent) select incPersent from ( select * from t context...
回答于 2024-04-01 08:56
分布式文件以dfs://开头,少写了dfs://,改成如下: testTB = loadTable("dfs://FUTURE_TICK", "L1_datayes")
回答于 2024-03-29 15:02
可以用textChunkDS函数分段导入,下面示例供参考: 实验环境: 在windows本地分别部署2个单节点,端口分别是8848和8888,假设8848端口的节点是本地节点,8888端口的节点是远程节点。 步骤: 1.连接本地节点,用下面语句创建一个1000万行的csv文件: login("admin","123456") n=10000000 csvFile=`chunkText.csv trades...
回答于 2024-03-29 14:49
需要安装一下依赖库 sudo apt-get install libncurses5。后面我们会把libtinfo.so.5也放到插件包里,这样就不用额外安装依赖库了。
回答于 2024-03-22 16:27
用getPersistenceMeta函数查看一下已经持久化到磁盘的记录数,然后用subscribeTable订阅,设置subscribeTable的参数offset=getPersistenceMeta(表名).diskOffset
回答于 2024-03-22 16:22
看一下系统是否存在/etc/timezone 或 /etc/localtime 这2个目录,或者sudo apt-get install --reinstall tzdata 重装一下tzdata
回答于 2024-03-22 15:19