博客
关于我
Mdrill 测试数据写入程序
阅读量:800 次
发布时间:2023-02-08

本文共 2004 字,大约阅读时间需要 6 分钟。

写入数据到Hadoop分布式文件系统中的TV表数据

最近在项目中需要将大量数据写入Hadoop分布式文件系统中的TV表中,本文将详细介绍SQL表的创建和Java代码实现。

TV表的SQL定义如下:

CREATE TABLE tv (thedate STRING,tv STRING)

Java代码实现:

import java.io.BufferedWriter;import java.io.IOException;import java.io.OutputStreamWriter;import java.text.SimpleDateFormat;import java.util.Calendar;import java.util.Date;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataOutputStream;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;

public class ImportData {

private static Configuration conf = null;private static FileSystem fs = null;public static void main(String[] args) throws IOException {    conf = ConfigurationUtil.getConf();    fs = FileSystem.get(conf);    String pathString = "/group/tbdp-etao-adhoc/p4padhoc/tablelist/tv";    Calendar calendar = Calendar.getInstance();    calendar.setTime(new Date());    calendar.set(2013, 1, 1);    SimpleDateFormat sf = new SimpleDateFormat("yyyyMMdd");    while (calendar.get(Calendar.YEAR) < 2014) {        String dateStr = sf.format(calendar.getTime());        String path = pathString + "/dt=" + dateStr;        mkdir(path);        writeTVData(path, dateStr);        calendar.add(Calendar.DAY_OF_YEAR, 1);    }    fs.close();}public static void writeTVData(String dir, String dateStr) throws IOException {    FSDataOutputStream fos = null;    OutputStreamWriter osw = null;    BufferedWriter bw = null;    fos = fs.create(new Path(dir + "/data.txt"), false);    osw = new OutputStreamWriter(fos);    bw = new BufferedWriter(osw);    for (int i = 0; i < 100000; i++) {        StringBuffer strBuffer = new StringBuffer();        strBuffer.append(dateStr);        strBuffer.append((char) 1);        strBuffer.append(i);        strBuffer.append(System.lineSeparator());        bw.write(strBuffer.toString());    }    bw.close();    osw.close();    fos.close();}public static void mkdir(String dir) throws IOException {    Path p = new Path(dir);    if (!fs.exists(p)) {        fs.mkdirs(p);    }}

}

转载地址:http://pmyfk.baihongyu.com/

你可能感兴趣的文章
NLP的神经网络训练的新模式
查看>>
NLP采用Bert进行简单文本情感分类
查看>>
NLP问答系统:使用 Deepset SQUAD 和 SQuAD v2 度量评估
查看>>
NLP项目:维基百科文章爬虫和分类【02】 - 语料库转换管道
查看>>
NLP:从头开始的文本矢量化方法
查看>>
NLP:使用 SciKit Learn 的文本矢量化方法
查看>>
NLTK - 停用词下载
查看>>
nmap 使用总结
查看>>
nmap 使用方法详细介绍
查看>>
nmap使用
查看>>
nmap使用实战(附nmap安装包)
查看>>
Nmap哪些想不到的姿势
查看>>
Nmap扫描教程之Nmap基础知识
查看>>
nmap指纹识别要点以及又快又准之方法
查看>>
Nmap渗透测试指南之指纹识别与探测、伺机而动
查看>>
Nmap端口扫描工具Windows安装和命令大全(非常详细)零基础入门到精通,收藏这篇就够了
查看>>
NMAP网络扫描工具的安装与使用
查看>>
NMF(非负矩阵分解)
查看>>
nmon_x86_64_centos7工具如何使用
查看>>
NN&DL4.1 Deep L-layer neural network简介
查看>>