基于AWS Serverless的Glue服务进行ETL(提取、转换和加载)数据分析——一、创建Glue

一、通过Athena查询s3中的数据

此实验使用s3作为数据源

ETL:

E    extract         输入
T    transform     转换
L    load             输出

简易架构图

在这里插入图片描述

1.1、创建Glue数据库

首先我们需要创建一个数据库。我们将会使用爬网程序来填充我们的数据目录。

步骤 图例
1、入口

在这里插入图片描述

2、创建数据库 只需输入一个数据库名称即可

在这里插入图片描述

3、结果

在这里插入图片描述

1.2、创建爬网程序

在任务中,我们经常会使用Glue爬网程序来填充我们的数据目录。
爬虫可以在一次运行中爬取多个数据存储。在爬取完成后,我们会在数据目录中看到由爬虫创建的一个或多个表。
创建表后,我们就可以在接下来的Athena查询或ETL作业中使用表来作为源或目标了。

步骤 图例
1、入口

在这里插入图片描述

2、输入爬虫名称

在这里插入图片描述

3、选择数据源类型(Data Stores:创建,Existing catalog tables:更新) 选择爬取类型(Crawl all folders:爬取全部文件夹,Crawl new folders only:只爬取新文件夹,Crawl changed folders indentified by Amazon S3 Event Notifications:只爬取S3事件通知的有变更的文件夹)

在这里插入图片描述

4、选择s3 (可对s3中的需要爬取的数据进行筛选)

在这里插入图片描述

5、创建或选择爬网程序IAM角色(需要有对应S3与Glue的权限)

在这里插入图片描述

6、对于不确定的实时数据或许要定时更新的数据,可按需选择频率;若只需创建表结构,可选择按需运行

在这里插入图片描述

7、确认

在这里插入图片描述

此时,数据库与爬网程序已准备完毕。
我们将会运行爬网程序自动分析数据结构并创建表。

1.3、创建表

如果对待爬取数据结构未知,或者结构复杂、字段繁杂,则使用“爬网程序创建表”;对于对待爬取数据结构清晰明了的,可以使用“手动创建表”模式。

1.3.1、爬网程序创建表

步骤 图例
1、运行                         

在这里插入图片描述

2、运行中

在这里插入图片描述

3、运行完毕

在这里插入图片描述

4、运行结果

在这里插入图片描述

5、表结构

在这里插入图片描述

1.3.2、手动创建表

步骤 图例
1、入口

在这里插入图片描述

2、表名

在这里插入图片描述

3、数据源

在这里插入图片描述

4、选择文件类型

在这里插入图片描述

5、手动创建表需要自定义列;请根据提示创建

在这里插入图片描述

6、一直下一步即可

1.4、Athena查询

Athena是一种交互式查询服务(不是数据库)。并且Athena可以使用标准SQL直接查询S3中的数据,前提是需要使用Glue连接S3源。Athena还支持查询如DynamoDB、Redshift、MySQL等数据库。

步骤 图例
1、入口

在这里插入图片描述

2、设置查询结果存储位置:s3

在这里插入图片描述

在这里插入图片描述

3、查看表,可查看数据库以及其中的表

在这里插入图片描述

4、查询结果:使用sql查询

在这里插入图片描述

1.5、总结

在此实验中,我们使用Glue 的爬网程序自动解析存储在s3桶中的原始数据,自动创建了表。通过Glue数据库中的表,我们可以使用Athena对表进行查询(Athena每次检索表对应的s3桶数据,按检索量收费)。接下来我们会对原始数据进行转换、清洗以及分区操作,以及使用API Gateway+Lambda实现一个无服务架构,通过API查询数据。

作者

Zikuo Su

相关文章

学习编程是顺着互联网的发展潮流,是一件好事。新手如何学习...
IT行业是什么工作做什么?IT行业的工作有:产品策划类、页面...
女生学Java好就业吗?女生适合学Java编程吗?目前有不少女生...
Can’t connect to local MySQL server through socket \'/v...
oracle基本命令 一、登录操作 1.管理员登录 # 管理员登录 ...
一、背景 因为项目中需要通北京网络,所以需要连vpn,但是服...