Apache Pig的Filter运算符用法是什么
Admin 2022-09-29 群英技术资讯 443 次浏览
FILTER 运算符用于根据条件从关系中选择所需的元组。
下面给出了 FILTER 运算符的语法。
grunt> Relation2_name = FILTER Relation1_name BY (condition);
假设在HDFS目录 /pig_data/ 中有一个名为 student_details.txt 的文件,如下所示。
student_details.txt
001,Rajiv,Reddy,21,9848022337,Hyderabad 002,siddarth,Battacharya,22,9848022338,Kolkata 003,Rajesh,Khanna,22,9848022339,Delhi 004,Preethi,Agarwal,21,9848022330,Pune 005,Trupthi,Mohanthy,23,9848022336,Bhuwaneshwar 006,Archana,Mishra,23,9848022335,Chennai 007,Komal,Nayak,24,9848022334,trivendram 008,Bharathi,Nambiayar,24,9848022333,Chennai
将此文件通过关系 student_details 加载到 的Pig中,如下所示。
grunt> student_details = LOAD 'hdfs://localhost:9000/pig_data/student_details.txt' USING PigStorage(',') as (id:int, firstname:chararray, lastname:chararray, age:int, phone:chararray, city:chararray);
现在使用Filter运算符来获取属于Chennai城市的学生的详细信息。
filter_data = FILTER student_details BY city == 'Chennai';
使用 DUMP 运算符验证关系 filter_data ,如下所示。
grunt> Dump filter_data;
它将产生以下输出,显示关系 filter_data 的内容如下。
(6,Archana,Mishra,23,9848022335,Chennai) (8,Bharathi,Nambiayar,24,9848022333,Chennai)
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
一个正常运营的产品每天会产生大量的数据,如果把这些数据都收集起来进行分析,不仅会使工作量增加,浪费大量时间,很可能还会得不到想要的分析结果。作为一名数据分析人员,更不应该为了分析而分析,而是应该紧紧围绕你的分析目的(了解现状、分析业务变动原因、预测发展趋势等)去进行分析。所以,在开始数据收集工作之前,就应该先把数据分析的目的梳理清楚,防止出现”答非所问”的数据分析结果。
元数据是什么?在大数据时代,元数据具有巨大的潜力,但是很多并不了解元素。因此,这篇文章小编就带大家快速的了解元数据是什么,感兴趣的朋友就继续往看吧。
一般来说,Apache Pig在Hadoop之上工作。它是一种分析工具,用于分析 Hadoop File System中存在的大型数据集。要使用Apache Pig分析数据,我们必须首先将数据加载到Apache Pig中。本章介绍如何从HDFS将数据加载到Apache Pig。
RDD的创建可以通过2种方式, 通过并行化集合创建( 本地对象转分布式RDD )和通过读取外部数据源( 读取文件)创建,如下:
在上一章中,我们解释了如何安装Apache Pig。在本章中,我们将讨论如何执行Apache Pig。Apache Pig执行模式你可以以两种模式运行Apache Pig,即Local(本地)模式和HDFS模式。Local模式在此模式下,所有文件都从本地主机和本地文件系统安装和运行
成为群英会员,开启智能安全云计算之旅
立即注册Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008