@@ -63,9 +63,10 @@ allprojects {
63
63
protobufVersion = ' 3.6.1'
64
64
jerseyVersion = ' 2.22.2'
65
65
sunJerseyVersion = ' 1.19.4'
66
- jettyVersion = ' 9.4.44.v20210927'
66
+ jettyVersion = ' 9.4.43.v20210629'
67
+ yarnTestJettyVersion = ' 9.3.24.v20180605' // only used by yarn tests
67
68
jettyOldVersion = ' 6.1.26'
68
- log4jVersion = ' 1. 2.17'
69
+ log4j2Version = ' 2.17.2 '
69
70
slf4jVersion = ' 1.7.32'
70
71
junitVersion = ' 4.12'
71
72
mockitoVersion = ' 1.10.19'
@@ -148,6 +149,110 @@ allprojects {
148
149
pegdownVersion = ' 1.6.0'
149
150
150
151
shadePackageName = ' org.spark_project'
152
+
153
+ libraries = [
154
+ hadoop_client : dependencies. create(" org.apache.hadoop:hadoop-client:${ hadoopVersion} " ) {
155
+ exclude(group : ' asm' , module : ' asm' )
156
+ exclude(group : ' org.codehaus.jackson' , module : ' jackson-core-asl' )
157
+ exclude(group : ' org.codehaus.jackson' , module : ' jackson-mapper-asl' )
158
+ exclude(group : ' org.ow2.asm' , module : ' asm' )
159
+ exclude(group : ' org.jboss.netty' , module : ' netty' )
160
+ exclude(group : ' commons-logging' , module : ' commons-logging' )
161
+ exclude(group : ' org.mockito' , module : ' mockito-all' )
162
+ exclude(group : ' org.mortbay.jetty' , module : ' servlet-api-2.5' )
163
+ exclude(group : ' javax.servlet' , module : ' servlet-api' )
164
+ exclude(group : ' junit' , module : ' junit' )
165
+ exclude(group : ' com.google.guava' , module : ' guava' )
166
+ exclude(group : ' com.sun.jersey' )
167
+ exclude(group : ' com.sun.jersey.jersey-test-framework' )
168
+ exclude(group : ' com.sun.jersey.contribs' )
169
+ exclude(group : ' io.netty' , module : ' netty' )
170
+ exclude(group : ' io.netty' , module : ' netty-all' )
171
+ exclude(group : ' org.apache.directory.server' , module : ' apacheds-kerberos-codec' )
172
+ exclude(group : ' log4j' , module : ' log4j' )
173
+ exclude(group : ' org.slf4j' , module : ' slf4j-logj12' )
174
+ },
175
+ hive_exec : dependencies. create(" org.spark-project.hive:hive-exec:${ hiveVersion} " ) {
176
+ exclude(group : ' org.datanucleus' , module : ' datanucleus-core' )
177
+ exclude(group : ' org.spark-project.hive' , module : ' hive-metastore' )
178
+ exclude(group : ' org.spark-project.hive' , module : ' hive-shims' )
179
+ exclude(group : ' org.spark-project.hive' , module : ' hive-ant' )
180
+ exclude(group : ' org.spark-project.hive' , module : ' spark-client' )
181
+ exclude(group : ' org.apache.ant' , module : ' ant' )
182
+ exclude(group : ' com.esotericsoftware.kryo' , module : ' kryo' )
183
+ exclude(group : ' commons-codec' , module : ' commons-codec' )
184
+ exclude(group : ' commons-httpclient' , module : ' commons-httpclient' )
185
+ exclude(group : ' org.apache.avro' , module : ' avro-mapred' )
186
+ exclude(group : ' org.apache.calcite' , module : ' calcite-core' )
187
+ exclude(group : ' org.apache.curator' , module : ' apache-curator' )
188
+ exclude(group : ' org.apache.curator' , module : ' curator-client' )
189
+ exclude(group : ' org.apache.curator' , module : ' curator-framework' )
190
+ exclude(group : ' org.apache.thrift' , module : ' libthrift' )
191
+ exclude(group : ' org.apache.thrift' , module : ' libfb303' )
192
+ exclude(group : ' org.apache.zookeeper' , module : ' zookeeper' )
193
+ exclude(group : ' org.slf4j' , module : ' slf4j-api' )
194
+ exclude(group : ' org.slf4j' , module : ' slf4j-log4j12' )
195
+ exclude(group : ' log4j' , module : ' log4j' )
196
+ exclude(group : ' log4j' , module : ' apache-log4j-extras' )
197
+ exclude(group : ' commons-logging' , module : ' commons-logging' )
198
+ exclude(group : ' org.codehaus.groovy' , module : ' groovy-all' )
199
+ exclude(group : ' jline' , module : ' jline' )
200
+ exclude(group : ' org.json' , module : ' json' )
201
+ },
202
+ hive_meta : dependencies. create(" org.spark-project.hive:hive-metastore:${ hiveVersion} " ) {
203
+ exclude(group : ' org.datanucleus' , module : ' datanucleus-core' )
204
+ exclude(group : ' org.datanucleus' , module : ' datanucleus-api-jdo' )
205
+ exclude(group : ' org.datanucleus' , module : ' datanucleus-rdbms' )
206
+ exclude(group : ' org.spark-project.hive' , module : ' hive-serde' )
207
+ exclude(group : ' org.spark-project.hive' , module : ' hive-shims' )
208
+ exclude(group : ' org.apache.thrift' , module : ' libfb303' )
209
+ exclude(group : ' org.apache.thrift' , module : ' libthrift' )
210
+ exclude(group : ' javax.servlet' , module : ' servlet-api' )
211
+ exclude(group : ' com.google.guava' , module : ' guava' )
212
+ exclude(group : ' org.slf4j' , module : ' slf4j-api' )
213
+ exclude(group : ' org.slf4j' , module : ' slf4j-log4j12' )
214
+ exclude(group : ' log4j' , module : ' log4j' )
215
+ exclude(group : ' log4j' , module : ' apache-log4j-extras' )
216
+ exclude(group : ' org.apache.derby' , module : ' derby' )
217
+ },
218
+ avro_ipc : dependencies. create(" org.apache.avro:avro-ipc:${ avroVersion} " ) {
219
+ exclude(group : ' io.netty' , module : ' netty' )
220
+ exclude(group : ' org.mortbay.jetty' , module : ' jetty' )
221
+ exclude(group : ' org.mortbay.jetty' , module : ' jetty-util' )
222
+ exclude(group : ' org.mortbay.jetty' , module : ' servlet-api' )
223
+ exclude(group : ' org.apache.velocity' , module : ' velocity' )
224
+ exclude(group : ' log4j' , module : ' log4j' )
225
+ exclude(group : ' org.slf4j' , module : ' slf4j-log4j12' )
226
+ },
227
+ avro_mapred : dependencies. create(" org.apache.avro:avro-mapred:${ avroVersion} :hadoop2" ) {
228
+ exclude(group : ' io.netty' , module : ' netty' )
229
+ exclude(group : ' org.mortbay.jetty' , module : ' jetty' )
230
+ exclude(group : ' org.mortbay.jetty' , module : ' jetty-util' )
231
+ exclude(group : ' org.mortbay.jetty' , module : ' servlet-api' )
232
+ exclude(group : ' org.apache.velocity' , module : ' velocity' )
233
+ exclude(group : ' org.apache.avro' , module : ' avro-ipc' )
234
+ },
235
+ netty_all : dependencies. create(" io.netty:netty-all:${ nettyAllVersion} " ) {
236
+ exclude(group : ' io.netty' , module : ' netty-codec-dns' )
237
+ exclude(group : ' io.netty' , module : ' netty-codec-haproxy' )
238
+ exclude(group : ' io.netty' , module : ' netty-codec-http' )
239
+ exclude(group : ' io.netty' , module : ' netty-codec-http2' )
240
+ exclude(group : ' io.netty' , module : ' netty-codec-memcache' )
241
+ exclude(group : ' io.netty' , module : ' netty-codec-mqtt' )
242
+ exclude(group : ' io.netty' , module : ' netty-codec-redis' )
243
+ exclude(group : ' io.netty' , module : ' netty-codec-smtp' )
244
+ exclude(group : ' io.netty' , module : ' netty-codec-socks' )
245
+ exclude(group : ' io.netty' , module : ' netty-codec-stomp' )
246
+ exclude(group : ' io.netty' , module : ' netty-codec-xml' )
247
+ exclude(group : ' io.netty' , module : ' netty-handler-proxy' )
248
+ exclude(group : ' io.netty' , module : ' netty-resolver-dns' )
249
+ exclude(group : ' io.netty' , module : ' netty-resolver-dns-classes-macos' )
250
+ exclude(group : ' io.netty' , module : ' netty-resolver-dns-native-macos' )
251
+ exclude(group : ' io.netty' , module : ' netty-transport-rxtx' )
252
+ exclude(group : ' io.netty' , module : ' netty-transport-sctp' )
253
+ exclude(group : ' io.netty' , module : ' netty-transport-udt' )
254
+ }
255
+ ]
151
256
}
152
257
153
258
// default output directory like in sbt/maven
@@ -285,9 +390,11 @@ subprojects {
285
390
compile ' org.scala-lang:scala-library:' + scalaVersion
286
391
compile ' org.scala-lang:scala-reflect:' + scalaVersion
287
392
288
- compile group : ' log4j' , name :' log4j' , version : log4jVersion
393
+ compile ' org.apache.logging.log4j:log4j-api:' + log4j2Version
394
+ compile ' org.apache.logging.log4j:log4j-core:' + log4j2Version
395
+ compile ' org.apache.logging.log4j:log4j-1.2-api:' + log4j2Version
289
396
compile ' org.slf4j:slf4j-api:' + slf4jVersion
290
- compile ' org.slf4j: slf4j-log4j12 :' + slf4jVersion
397
+ compile ' org.apache.logging.log4j:log4j- slf4j-impl :' + log4j2Version
291
398
292
399
testCompile " junit:junit:${ junitVersion} "
293
400
testCompile " org.scalatest:scalatest_${ scalaBinaryVersion} :${ scalatestVersion} "
@@ -389,10 +496,11 @@ gradle.taskGraph.whenReady { graph ->
389
496
' SPARK_PREPEND_CLASSES' : ' 1' ,
390
497
' SPARK_SCALA_VERSION' : scalaBinaryVersion,
391
498
' SPARK_TESTING' : ' 1' ,
499
+ ' SPARK_LOCAL_IP' : ' localhost' ,
392
500
' PYSPARK_PYTHON' : sparkPython,
393
501
' PYSPARK_DRIVER_PYTHON' : sparkPython,
394
502
' JAVA_HOME' : System . getProperty(' java.home' )
395
- systemProperties ' log4j.configuration ' : " file:${ test.project.projectDir} /src/test/resources/log4j .properties" ,
503
+ systemProperties ' log4j.configurationFile ' : " file:${ test.project.projectDir} /src/test/resources/log4j2 .properties" ,
396
504
' derby.system.durability' : ' test' ,
397
505
' java.awt.headless' : ' true' ,
398
506
' java.io.tmpdir' : " ${ rootProject.buildDir} /tmp" ,
0 commit comments