`
chenchangqun
  • 浏览: 54029 次
  • 性别: Icon_minigender_1
  • 来自: 大连
社区版块
存档分类
最新评论

hive 快速插入测试数据

阅读更多
vi  /root/data.txt
1,sss
2,dfdf
3,dfdf
4,changqun


data.txt中不要有空行,空行也是一条数据.
$ hive
创建一个表
hive>create table test(id int,name string) row format delimited fields terminated by ',';
加载数据
hive>LOAD DATA LOCAL INPATH '/root/data.txt' OVERWRITE INTO TABLE test;

查询即可看到结果
hive> select * from test;
OK
1 sss
2 dfdf
3 dfdf
4 changqun
Time taken: 2.701 seconds
分享到:
评论

相关推荐

    使用kettle将mysql中的数据导入到hive中

    先说说思路:1是直接从mysql输出至hive中,另外一个是先将数据搞到hdfs中,再load一下,...抽取数据,插入的目标库中有没有对应为表的话点击下方的SQL,会默认执行DDL语句,create一下表,接下来NEXT 成功!当然具体的

    HiveSqlBloodFigure:hive血缘关系解析工具

    删除hive-exec与hadoop-common的maven依赖,使得项目更加的轻量级。 重构项目代码,优化解析,修复无字段血缘时,不能获取表血缘的BUG。 规范化接口输入输出,血缘图均为自定义实体,方便进行JSON序列化。 新增接口...

    datafaker:Datafaker是大型测试数据和流测试数据生成工具。 Datafaker伪造数据并将其插入各种数据源。测试数据生成工具

    Datafaker是大型测试数据和流量测试数据生成工具。 它与python2.7和python3.4 +兼容。 欢迎下载和使用。 github地址是: github上的文档同步更新 2.背景 在软件开发测试过程中,经常需要测试数据。 这些方案包括: ...

    Java使用JDBC向MySQL数据库批次插入10W条数据(测试效率)

    使用JDBC连接MySQL数据库进行数据插入的时候,特别是大批量数据连续插入(100000),如何提高效率呢?今天小编通过本教程给大家介绍下

    HiveUDTF:此Hive UDTF将复制第一个输入列

    此Hive UDTF将复制第一个输入列 一种。 如何制作罐子 mvn package ## b。 准备一个带有示例数据的Hive表 在Hive CLI中,创建测试表: create table testudtf (a string, b string) ROW FORMAT DELIMITED FIELDS ...

    movie-recommendation-system:基于Apache Hadoop和Hive的并行电影推荐

    您可以从下载我们的测试数据。 README.txt具有有关其数据属性的非常详细的说明。 在wirteup中也有描述。 请将给定数据集中的::替换为 (这是一个标签)。 只要使其更容易处理即可。 请将目录更改为刚刚下载的数据...

    HiveUDF:蜂巢样本UDF

    准备一个带有示例数据的Hive表在Hive CLI中,创建测试表: CREATE TABLE testarray (col1 string, col2 string) ROW FORMAT DELIMITED FIELDS TERMINATED BY " | " ;CREATE TABLE testarray2 (col1 array < string>...

    如何在Hive、MySQL、Oracle中分别添加自增序号

    最近公司业务涉及到了在相应库中添加自增序号这种操作,闲暇之余,整理如下,仅供参考~ ... 2、向测试表中插入几条数据 insert into table xzw values (1,'row1'),(1,'row2'),(1,'row3');  3、使用row_n

    Hadoop权威指南(中文版)2015上传.rar

    本地运行测试数据 在本地作业运行器上运行作业 测试驱动程序 在集群上运行 打包 启动作业 MapReduce的Web界面 获取结果 作业调试 使用远程调试器 作业调优 分析任务 MapReduce的工作流 将问题分解成MapReduce作业 ...

    Hadoop权威指南 第二版(中文版)

     本地运行测试数据  在本地作业运行器上运行作业  测试驱动程序  在集群上运行  打包  启动作业  MapReduce的Web界面  获取结果  作业调试  使用远程调试器  作业调优  分析任务  MapReduce的工作流  ...

    大数据学习笔记

    23.2 load数据(插入数据) 85 23.3 修改数据表(Alter table) 86 23.4 删除表(Drop table) 90 第24章 分区 92 24.1 添加分区(Adding a Partition) 93 24.2 重命名分区(Renaming a Partition) 93 24.3 删除分区(Droping...

    Hadoop硬实战 [(美)霍姆斯著][电子工业出版社][2015.01]_PDF电子书下载 带书签目录 高清完整版.rar )

    技术点26 在HDFS、MapReduce、Pig 和Hive 中使用数据压缩 技术点27 在MapReduce、Hive 和Pig 中处理可分割的LZOP 5.3 本章小结 6 诊断和优化性能问题 6.1 衡量MapReduce 和你的环境 6.1.1 提取作业统计...

    Hadoop实战(第2版)

    技术点79 MapReduce 函数、作业和管道的单元测试13.1.3 LocalJobRunner技术点80 用LocalJobRunner 进行重量级的作业测试13.1.4 集成和QA 测试13.2 调试用户空间的问题13.2.1 访问任务日志技术点81 ...

    aliyun-emapreduce-demo

    本项目包含以下示例: MapReduce WordCount: 单词统计 ...测试数据(data目录下): The_Sorrows_of_Young_Werther.txt:可作为WordCount(MapReduce/Spark)的输入数据 patterns.txt:WordCount(MapReduce)作

    Apriori_java_MR.zip

    (6) 将数据集从本地传输到HDFS上,使用hadoop jar命令,输入驱动类规定参数,使用Apriori.jar包,运行AprioriDriver驱动类,实现算法效果。 (7) 运行结束使用hadoop fs -cat /output命令查看结果。

    java版ss源码-sputnik:人造卫星

    java版s源码人造卫星 编写每日 Spark 批处理作业的框架,使用 Hive ...在将结果数据插入结果表之前对结果数据运行检查 当作业在测试或暂存模式下运行时,将数据写入表的测试版本 实用程序可轻松为作业

    新版Hadoop视频教程 段海涛老师Hadoop八天完全攻克Hadoop视频教程 Hadoop开发

    04-hadoop对海量数据处理的解决思路.avi 05-hadoop版本选择和伪分布式安装.avi 06-hadoop版本选择和伪分布式安装2.avi 07-hdfs&mapreduce;测试.avi 08-hdfs的实现机制初始.avi 09-hdfs的shell操作.avi 10-...

    nosql 入门教程

    13.1.2 插入文档 219 13.1.3 查询集合 219 13.1.4 MongoDB数据库文件 220 13.2 Membase架构 222 13.3 Hypertable底层 224 13.3.1 正则表达式支持 224 13.3.2 布隆过滤器 224 13.4 Apache Cassandra 225 ...

    基于hadoop实现的电影推荐网站+源代码+文档说明

    描述:使用hbase和mysql作为网站数据库,使用flume来监听项目输出的activity.out日志信息,不断地把增量数据自动上传到HDFS中,使用hive来创建外部表来把Flume传过来的数据进行入库,使用HQL语法来对所得数据进行...

    基于hadoop生态实现的的电影网站+源代码+文档说明

    描述:使用hbase和mysql作为网站数据库,使用flume来监听项目输出的activity.out日志信息,不断地把增量数据自动上传到HDFS中,使用hive来创建外部表来把Flume传过来的数据进行入库,使用HQL语法来对所得数据进行...

Global site tag (gtag.js) - Google Analytics