文档章节

Avro 生成代码使用案例

xmeng
 xmeng
发布于 2018/07/15 01:00
字数 1759
阅读 103
收藏 0

摘要:最近研究 Kafka,其中数据对象的序列化和反序列化操作除了内置的序列化器外,还可以自定义对象序列化器,另外还有一中方法就是使用 Avro,这种方法通过规范Schema 达到更通用的效果。本文单独抽离出如何使用 Avro 生成代码,该过程同样也可以在 Kafka 使用中利用。

<!--more-->

概述

Avro 是 Hadoop 中的一个子项目,也是 Apache 中一个独立的项目,Avro 是一个基于二进制数据传输高性能的中间件。在 Hadoop 的其他项目中,例如 HBaseHiveClient 端与服务端的数据传输也采用了这个工具。Avro 是一个数据序列化的系统,它可以提供:

1、丰富的数据结构类型 2、快速可压缩的二进制数据形式 3、存储持久数据的文件容器 4、远程过程调用 RPC 5、简单的动态语言结合功能,Avro 和动态语言结合后,读写数据文件和使用 RPC 协议都不需要生成代码,而代码生成作为一种可选的优化只值得在静态类型语言中实现。 Avro 支持跨编程语言实现(C, C++, C#,Java, Python, Ruby, PHP),Avro 提供着与诸如 Thrift 和 Protocol Buffers 等系统相似的功能,但是在一些基础方面还是有区别的,主要是:

1、动态类型:Avro 并不需要生成代码,模式和数据存放在一起,而模式使得整个数据的处理过程并不生成代码、静态数据类型等等。这方便了数据处理系统和语言的构造。 2、未标记的数据:由于读取数据的时候模式是已知的,那么需要和数据一起编码的类型信息就很少了,这样序列化的规模也就小了。 3、不需要用户指定字段号:即使模式改变,处理数据时新旧模式都是已知的,所以通过使用字段名称可以解决差异问题。 Avro 和动态语言结合后,读/写数据文件和使用 RPC 协议都不需要生成代码,而代码生成作为一种可选的优化只需要在静态类型语言中实现。

当在 RPC 中使用 Avro 时,服务器和客户端可以在握手连接时交换模式。服务器和客户端有着彼此全部的模式,因此相同命名字段、缺失字段和多余字段等信息之间通信中需要解决的一致性问题就可以容易解决。

还有,Avro 模式是用 JSON(一种轻量级的数据交换模式)定义的,这样对于已经拥有 JSON 库的语言可以容易实现

本文主要介绍如何使用 AvroSchema 文件生成代码,不会详细介绍 Schema 的语法等内容,可参考官方文档,以及如下博文。Avro介绍

使用Avro生成代码

目标

在开发中,如果我们要使用 Avro 往往需要生成类文件,虽然这些文件不需要被管理,每次编译都可以自动生成,但是如果开发中能有一个生成好的类文件,对于测试和开发都有好处。本文介绍使用 Maven 依赖来完成这个过程,好处是不需要自己下载 jar,自己敲命令行来完成代码生成。

这里着重介绍以下问题:

  1. AvroMaven 插件的配置
  2. 如何执行代码生成命令

AvroMaven 插件的配置

首先引入依赖 org.apache.avro

<dependencies>
	<!-- avro Dependency-->
	<dependency>
		<groupId>org.apache.avro</groupId>
		<artifactId>avro</artifactId>
		<version>1.8.2</version>
	</dependency>
</dependencies>

然后添加 plugin

<plugin>
	<groupId>org.apache.avro</groupId>
	<artifactId>avro-maven-plugin</artifactId>
	<version>1.8.2</version>
	<!--global plugin configuration which used for run goal separately-->
	<configuration>
		<!--The Avro source directory for schema, protocol and IDL files.-->
		<sourceDirectory>${project.basedir}/src/main/avro/</sourceDirectory>
		<!--The directory where Avro writes code-generated sources. IMPORTANT!! -->
		<outputDirectory>${project.basedir}/src/main/java/</outputDirectory>
		<!--The input directory containing any Avro files used in testing.-->
		<testSourceDirectory>${project.basedir}/src/test/avro/</testSourceDirectory>
		<!--The output directory where Avro writes code-generated files for your testing purposes.-->
		<testOutputDirectory>${project.basedir}/src/test/java/</testOutputDirectory>
	</configuration>
	<executions>
		<execution>
			<!--
			IMPORTANT: Because this configuration is set in the execution with phase `generate-sources`.
			So only run compile or package which include this phase will apply this configuration.
			So if only make this configuration, run `mvn avro:schema` will only generate to the target
			folder with default configuration.
			-->
			<phase>generate-sources</phase>
			<goals>
				<goal>schema</goal>
				<!--If you want to generate other code, need add more goals-->
				<goal>protocol</goal>
				<goal>idl-protocol</goal>
			</goals>
			<!---->
			<configuration>
				<!--default is ${basedir}/src/main/avro
				The Avro source directory for schema, protocol and IDL files.-->
				<sourceDirectory>${project.basedir}/src/main/avro/</sourceDirectory>

				<!--default is ${project.build.directory}/generated-sources/avro
				 The directory where Avro writes code-generated sources. IMPORTANT!! -->
				<outputDirectory>${project.basedir}/src/main/java/</outputDirectory>

				<!--default is ${basedir}/src/test/avro
				The input directory containing any Avro files used in testing.-->
				<testSourceDirectory>${project.basedir}/src/test/avro/</testSourceDirectory>

				<!--default is ${project.build.directory}/generated-test-sources/avro
				The output directory where Avro writes code-generated files for your testing purposes.-->
				<testOutputDirectory>${project.basedir}/src/test/java/</testOutputDirectory>

				<!--fieldVisibility PUBLIC_DEPRECATED
				Determines the accessibility of fields (e.g. whether they are public or private).
				Must be one of PUBLIC, PUBLIC_DEPRECATED or PRIVATE. PUBLIC_DEPRECATED merely
				adds a deprecated annotation to each field, e.g. "@Deprecated public long time".-->


				<!--In addition, the includes and testIncludes configurables can also be used to
				specify alternative file extensions to the defaults, which are **/*.avsc, **/*.avpr
				and **/*.avdl for schema, protocol and IDL files respectively.-->
				<!--<includes>
				  <include>**/*.avro</include>
				</includes>
				<testIncludes>
				  <testInclude>**/*.test</testInclude>
				</testIncludes>-->
			</configuration>
		</execution>
	</executions>
</plugin>

这个配置需要注意几点

配置的位置

官方文档中配置放在了 execution 标签之下,这就意味着这个配置是在对应的 phase 执行的环境下才有效。所以官方的案例只有在执行 generate-sources 时才会生效。

如果我们希望能够通过 mvn 执行 goal 的时候使配置生效,我们可以把配置放在 plugin 之下,这样所有的 goal 都会使用该配置文件。

配置选项说明

重点如如下几种配置:

配置项默认值描述
sourceDirectory${basedir}/src/main/avroAvro的Schema,Protocol,IDL 等文件
outputDirectory${project.build.directory}/generated-sources/avro代码生成的目标文件夹
testSourceDirectory${basedir}/src/test/avro测试使用的Schema,Protocol,IDL 等文件
testOutputDirectory${project.build.directory}/generated-test-sources/avro代码生成的目标文件夹

指定生成的包路径

通过上面的配置我们发现,只能指定到根路径,如果希望生成到指定的包路径,需要通过 Avro 的源文件指定 namespace 来唯一的指定包路径:

下面是一个 Schema 文件 weather.avsc

{
  "namespace": "science.mengxin.java.avro.demo",
  "type": "record",
  "name": "Weather",
  "doc": "A weather reading.",
  "fields": [
    {
      "name": "station",
      "type": "string",
      "order": "ignore"
    },
    {
      "name": "time",
      "type": "long"
    },
    {
      "name": "temp",
      "type": "int"
    }
  ]
}

如何执行代码生成命令

有了以上的配置,生成代码就非常简单

  1. 执行 mvn compile 或者 mvn package,代码将会按照配置文件生成
  2. 执行 mvn avro:schememvn avro:protocolmvn avro:idl-protocol 单独生成对应的代码

代码参考

以下是一个简单源码案例,仅供参考。

© 著作权归作者所有

共有 人打赏支持
xmeng
粉丝 1
博文 4
码字总数 7033
作品 0
南京
私信 提问
0016-Avro序列化&反序列化和Spark读取Avro数据

1.简介 本篇文章主要讲如何使用java生成Avro格式数据以及如何通过spark将Avro数据文件转换成DataSet和DataFrame进行操作。 1.1Apache Arvo是什么? Apache Avro 是一个数据序列化系统,Avro提...

Hadoop实操
2018/11/18
0
0
Apache Spark 2.4 内置的 Avro 数据源介绍

Apache Avro 是一种流行的数据序列化格式。它广泛用于 Apache Spark 和 Apache Hadoop 生态系统,尤其适用于基于 Kafka 的数据管道。从 Apache Spark 2.4 版本开始,Spark 为读取和写入 Avro...

Spark
2018/12/11
0
0
【译】Apache Spark 2.4内置数据源Apache Avro

原文链接: Apache Avro as a Built-in Data Source in Apache Spark 2.4 Apache Avro 是一种流行的数据序列化格式。它广泛使用于 Apache Spark 和 Apache Hadoop 生态中,尤其适用于基于 Ka...

开源大数据
2018/12/05
0
0
Impala 表使用 Avro 文件格式(翻译)

Impala 表使用 Avro 文件格式 Cloudera Impala 支持数据文件使用 Avro 文件格式的表。Impala 可以查询 Avro 表,但目前不支持创建和插入数据。对于这些操作,使用 Hive 处理,然后切换回 Im...

weiqingbin
2014/01/20
0
0
Apache Avro 1.8.1 发布

Apache Avro 1.8.1 发布了,Avro(读音类似于[ævrə])是Hadoop的一个子项目,由Hadoop的 创始人Doug Cutting(也是Lucene,Nutch等项目的创始人)牵头开发。Avro是一个数据序列化系统,设计...

oschina
2016/05/24
3.7K
0

没有更多内容

加载失败,请刷新页面

加载更多

Httpd 整合 Tomcat 步骤

环境:Tomcat8 + Httpd2.4 工作原理:借助于Tomcat的AJP连接器实现Apache与Tomcat的通信 配置步骤: 1. 配置httpd.conf 新增: Include conf/extra/mod_jk.conf 修改:添加 index.jsp <IfM...

ZeroneLove
昨天
1
0
Docker笔记3——容器命令(未写完,明天整理接着写)

未写完,明天整理接着写 新建并启动容器 docker run docker run [OPTIONS] IMAGE [COMMEND] [ARG...] OPTIONS: --name=[容器新名字] :为容器指定一个名称 -d:后台运行容器,并返回容器ID,...

HappyBKs
昨天
1
0
2018个人年终总结

感谢领导的信任和指导,新的一年获得了很多成长和提高,改掉了很多不好的习惯。 在这一年里,我在领导的帮助下,主要完成了以下功能: 1、完成上海银行版本投资营销相关功能的开发。 2、完成车...

万山红遍
昨天
11
0
保密工作与linux系统的发展

保密工作从性质上可以分成商业方面的保密和国家安全方面的保密。由于自己从事的是IT方面的工作,工作中必然会接触涉及到计算机信息方面的相关文件。加上单位已近通过武器装备科研生产单位二级...

linux-tao
昨天
3
0
Spark共享变量

概述 Spark程序的大部分操作都是RDD操作,通过传入函数给RDD操作函数来计算。这些函数在不同的节点上并发执行,但每个内部的变量有不同的作用域,不能相互访问,所以有时会不太方便,Spark提...

仟昭
昨天
2
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部