描述:
读取文件内容。
语法:
spark_read(con,sfile,k:v,...)
备注:
外部库函数,外部库的使用请参考《外部库使用指南》。
读取文件内容并返回序表。
参数:
con |
本地/hdfs连接串。 |
sfile |
文件名。 |
k:v |
参数,可以省略。当sfile为文本文件时,若文本文件的分隔符为“;”,则需要设置参数为”sep”:”;”;若分隔符为“#”,则需要设置参数为”sep”:”#”。 |
选项:
@c |
读取文件内容并返回成游标。 |
@t |
读取文本文件时,将第一行设置为字段名,等同于"header":"true";缺省则自动生成_c0、_c1…作为字段名。 |
@x |
关闭连接。 |
返回值:
序表/游标
示例:
|
A |
|
1 |
=spark_open() |
|
2 |
=spark_read@t(A1,"D:/people.txt","sep":",") |
读取分隔符为分号的txt文件,并设置第一行为字段名。 |
3 |
=spark_read(A1,"D:/people.txt","header":"true","sep":",") |
同上。 |
4 |
=spark_read(A1,"D:/people.json") |
读取people.json文件内容。 |
5 |
=spark_read@c(A1,"D:/people.csv") |
读取people.csv并返回成游标。 |
6 |
=A5.fetch() |
|
7 |
=spark_read@x(A1,"D:/people.csv") |
关闭连接。 |