csv
最近用到了python的csv工具包,故简单的记录一下使用方式。reader是一个
实在不知道为该篇文章起个标题。大概的场景是,窗口的聚集运算等。因为,mysql5.7中并没有窗口函数,要进行适配。本文的内容:
可以看成:数据按一定条件去重。
可以看成:array_concat(字段 order by 其他字段),等等等。
也可以看成:我们知道,聚集运算的时候,不参与聚集运算的字段,是不能选择的,除非是使用了聚集函数,才能参与select。聚集函数执行后,使无法再查看原始数据的细节。本文,大概使用几种方式。
sql真的是非常灵活,同样一个需求,可能有n种表达方式。
是时候跟gp暂告一段落了,大概在gp上面又花了有3个月。在这3个月的时间内,感觉自己也确实学到了一点东西,也记了很多的笔记。从实际的需求出发,在完成实际需求的过程中,并不停的优化它,大概主要优化了2次。另外,在做的过程中,自己也有很多的思考在里面。讲告别,虽然自己并不太相连告别,但是迟早都是要移交给别人的,与其别人卸磨杀驴,还不如,自己主动选择离开。
-- 导出镜像
docker save tensorflow/tensorflow:latest-py3-jupyter_prom > tensorflow.tar
-- 导入镜像
docker load < tensorflow.tar
-- 输出 Loaded image:tensorflow/tensorflow:latest-py3-jupyter_prom
另外,save 还可以使用 -o参数来指定导出的文件。
docker export 98ca36> ubuntu.tar
cat ubuntu.tar | sudo docker import - ubuntu:import
备注,save export的导出、导入不能混用。
parallel是使用Perl写的一个并行执行shell命令行的工具。用法也比较复杂,按最简单的来用,
cat myshell|parallel --bar -j 20,然后批量执行shell中的内容。每个shell,可以执行一个复杂的命令。
关于分组统计的一点思考。分组或者叫聚合运算,相当于map/reduce中的reduce,字段运算相当于map。关于聚合运算中的一些常见用途,比如去重,要用到的几个进行分组,然后再此结果,则查询一次。