我有几个依赖于的 .proto 文件syntax = "proto3";
。我还有一个 Maven 项目,用于构建 Hadoop/Spark 作业(Hadoop 2.7.1 和 Spark 1.5.2)。我想在 Hadoop/Spark 中生成数据,然后根据我的 proto3 文件对其进行序列化。
使用 libprotoc 3.0.0,我生成了 Java 源代码,只要我的 pom.xml 中有以下内容,这些源代码就可以在我的 Maven 项目中正常工作:
<dependency>
<groupId>com.google.protobuf</groupId>
<artifactId>protobuf-java</artifactId>
<version>3.0.0-beta-1</version>
</dependency>
现在,当我在部署到集群的作业中使用 libprotoc 生成的类时,我会遇到以下问题:
java.lang.VerifyError : class blah overrides final method mergeUnknownFields.(Lcom/google/protobuf/UnknownFieldSet;)Lcom/google/protobuf/GeneratedMessage$Builder;
at java.lang.ClassLoader.defineClass1(Native Method)
at java.lang.ClassLoader.defineClass(ClassLoader.java:760)
鉴于 Hadoop/Spark 依赖于与我的 3.0.0-beta-1 不兼容的 protobuf-java 2.5.0,类加载器失败似乎是合理的。我还注意到 protobufs(大概版本
$ jar tf target/myjar-0.1-SNAPSHOT.jar | grep protobuf | grep '/$'
org/apache/hadoop/ipc/protobuf/
org/jboss/netty/handler/codec/protobuf/
META-INF/maven/com.google.protobuf/
META-INF/maven/com.google.protobuf/protobuf-java/
org/apache/mesos/protobuf/
io/netty/handler/codec/protobuf/
com/google/protobuf/
google/protobuf/
我可以做些什么(Maven Shade?)来解决这个问题吗?
类似的问题在这里:Spark java.lang.VerifyError