updated on Thu Jan 26 16:09:46 UTC 2012
[aur-mirror.git] / hadoop-svn / PKGBUILD
blobc0f31ebef20dd27e5d64465e18bfe40e12623f0e
1 # Contributor: Jakub Schmidtke <sjakub-at-gmail.com>
3 pkgname=hadoop-svn
4 pkgver=764287
5 pkgrel=1
6 _devver=0.21.0-dev
7 pkgdesc="Hadoop - MapReduce implementation and distributed filesystem - subversion version"
8 arch=('i686' 'x86_64')
9 url="http://hadoop.apache.org"
10 license=('APACHE')
11 depends=('jre' 'zlib' 'gzip' 'lzo' 'bzip2')
12 makedepends=('jdk' 'apache-ant' 'subversion')
13 optdepends=('kfs')
14 conflicts=('hadoopb')
15 install=hadoop.install
16 source=('progressReporter.patch')
17 md5sums=('f991dca050cb9bacaa67e062d66b1a76')
19 _svntrunk=http://svn.apache.org/repos/asf/hadoop/core/trunk
20 _svnmod=hadoop-svn
22 build() {
24   cd ${srcdir}
26   if [ -d ${_svnmod}/.svn ]; then
27     (cd ${_svnmod} && svn -R revert .)
28     (cd ${_svnmod} && svn -r ${pkgver} up)
29   else
30     rm -rf ${_svnmod}
31     svn co ${_svntrunk} --config-dir ./ -r ${pkgver} ${_svnmod}
32   fi
34   msg "SVN checkout done or server timeout"
36   cd ${srcdir}/${_svnmod} || return 1
38   msg "Cleaning..."
40   ant clean || return 1
42   msg "Patching..."
44   patch -Np0 -i ${srcdir}/progressReporter.patch || return 1
46   msg "Building..."
48   ant -Dcompile.native=true bin-package || return 1
50   msg "Installing..."
52   mkdir -p ${pkgdir}/usr/share
53   mkdir -p ${pkgdir}/etc/hadoop
55   cd ${srcdir}/${_svnmod}/build || return 1
57   mv hadoop-${_devver} ${pkgdir}/usr/share/hadoop
58   mv ${pkgdir}/usr/share/hadoop/conf ${pkgdir}/etc/hadoop/default
60   cd ${pkgdir}/etc/hadoop/default || return 1
62   msg "Configuring..."
64   # Set Java home:
65   echo 'export JAVA_HOME=/opt/java/jre' >> hadoop-env.sh
67   # Set directories:
68   echo 'export HADOOP_LOG_DIR="/var/log/hadoop"' >> hadoop-env.sh
69   echo 'export HADOOP_PID_DIR="/var/run"' >> hadoop-env.sh
71   # Disable IPv6 (comment out for IPv6 support):
72   sed -i 's|_OPTS="-D|_OPTS="-Djava.net.preferIPv4Stack=true -D|' hadoop-env.sh
74   cd ${pkgdir}/usr/share/hadoop || return 1
76   sed -i 's#^export HADOOP_HOME=`dirname "$this"`/..#export HADOOP_HOME="/usr/share/hadoop"\nexport HADOOP_CONF_DIR="/etc/hadoop"#' bin/hadoop-config.sh
78   if [ "$CARCH" = "i686" ]; then
79     cd lib/native/Linux-i386-32
80   fi
82   if [ "$CARCH" = "x86_64" ]; then
83     cd lib/native/Linux-amd64-64
84   fi
86   # Create some links, so Hadoop's KFS jar could access KFS libraries properly
87   # (it is still fine if KFS is not installed)
89   msg "Creating KFS links..."
91   for lib in libkfsClient libkfsCommon libkfsEmulator libkfsIO libkfsMeta; do
92     for ext in a so; do
93       ln -s /usr/lib/${lib}.${ext}
94     done
95   done
97   ln -s /usr/lib/libkfs_access.so