Gambar Awan Aneh dan Unik

Beberapa fenomana penampakan awan yang aneh dan unik.

Awan Unik 1

Awan Unik 2

Awan Unik 3

Awan Unik 4

Awan Unik 5

Awan Unik 6

Awan Unik 7

Awan Unik 8

Awan Unik 9

Awan Unik 11

Awan Unik 10

Awan Unik 12

Awan Unik 13

Awan Unik 14

Bukan Gambar awan, cuma tambahan aja.

Monkey

Website BCA ada yang Palsu :(

Penipuan: Hati-hati mengakses situs Klik bca, dikarenakan ada situs palsu dimana isinya mirip sekali dengan aslinya, yg beralamat di http://www.bcaclick.com/, sedangkan alamat aslinya ada di alamat www.klikbca.com/. mohon waspada dan informasikan ke rekan anda yg lain. sampai berita ini ditulis, alamat masih ada.

Install Apache Tomcat di linux ubuntu

Dapet tugas kuliah bikin program JSP, mau buka windows males :D, terlanjur cinta sama linux.
Coba2 caranya install akhirnya ketemu juga :D
Pertama install sun-java dulu :

# apt-get install sun-java6-jdk


Kemudian download file apache tomcatnya

# wget http://apache.the.net.id/tomcat/tomcat-6/v6.0.16/bin/apache-tomcat-6.0.16.tar.gz

Extrak file apache tomcat
# tar -zxvf apache-tomcat-6.0.16.tar.gz

Pindahkan file hasil extrak ke direktory /usr/local/tomcat
#mv apache-tomcat-6.0.14 /usr/local/tomcat

edit file ~/.bashrc
#nano ~/.bashrc

isikan dengan kode berikut ini
export JAVA_HOME=/usr/lib/jvm/java-6-sun

kemudian buat file /etc/init.d/tomcat
#touch /etc/init.d/tomcat

edit file /etc/init.d/tomcat
#nano /etc/init.d/tomcat

isikan dengan kode berikut ini, copy paste aja :D
# Tomcat auto-start
#
# description: Auto-starts tomcat
# processname: tomcat
# pidfile: /var/run/tomcat.pid

export JAVA_HOME=/usr/lib/jvm/java-6-sun

case $1 in
start)
sh /usr/local/tomcat/bin/startup.sh
;;
stop)
sh /usr/local/tomcat/bin/shutdown.sh
;;
restart)
sh /usr/local/tomcat/bin/shutdown.sh
sh /usr/local/tomcat/bin/startup.sh
;;
esac
exit 0

Rubah permition file /etc/init.d/tomcat agar bisa di eksekusi

# chmod 755 /etc/init.d/tomcat

Buat shortcut file startupnya

# ln -s /etc/init.d/tomcat /etc/rc1.d/K99tomcat
# ln -s /etc/init.d/tomcat /etc/rc2.d/S99tomcat

untuk menjalanjan gunakan perintah ini

# /etc/init.d/tomcat


setelah itu buka browser "http://localhost:8080"
Beres dah :D
good luck

Convert dari CDDrive ke .img

awalnya sih iseng2 mo install windows di linux, setelah pake jurus andalan "googling" :D akhirnya ketemu juga caranya convert CDroom ke .img

root@Blank:~# dd if=/dev/scd0 of=windows.img
1198584+0 records in
1198584+0 records out
613675008 bytes (614 MB) copied, 164.2 s, 3.7 MB/s

root@Blank:~# ls -la
total 599304
drwxrwxrwx 1 root root 0 2008-06-20 18:31 .
drwxrwxrwx 1 root root 8192 2008-06-20 18:25 ..
-rwxrwxrwx 1 root root 613675008 2008-06-20 18:35 windows.img
-rwxrwxrwx 1 root root 7340032000 2008-06-20 18:25 Windows_XP.img
-rwxrwxrwx 1 root root 802 2008-06-20 18:30 Windows_XP.qte
root@Blank:~#

Seep, convert sukses :D

Convert AVI to 3gp menggunakan ffmpeg

setelah googling sana sini akhirnya ketemu juga caranya convert file ke 3gp :D
# apt-get install ffmpeg

ffmpeg [[infile options][-i infile]]… {[outfile options] outfile}…

Convert from MPG to 3GP
ffmpeg -i video_clip.mpg -s qcif -vcodec h263 -acodec mp3 -ac 1 -ar 8000 -ab 32 -y clip.3gp

Convert from AVI to 3GP
ffmpeg -i video_clip.avi-s qcif -vcodec h263 -acodec mp3 -ac 1 -ar 8000 -r 25 -ab 32 -y clip.3gp

Convert from 3GP to AVI
ffmpeg -i clip.3gp -f avi -vcodec xvid -acodec mp3 -ar 22050 file.avi

Kambing Mirror Ubuntu 8.04 Hardy

# deb cdrom:[Ubuntu 8.04 _Hardy Heron_ - Release i386 (20080423)]/ hardy main restricted
# See http://help.ubuntu.com/community/UpgradeNotes for how to upgrade to
# newer versions of the distribution.

deb http://kambing.ui.edu/ubuntu/ hardy main restricted
deb-src http://kambing.ui.edu/ubuntu/ hardy main restricted

deb http://kambing.ui.edu/ubuntu/ hardy-updates main restricted
deb-src http://kambing.ui.edu/ubuntu/ hardy-updates main restricted

deb http://kambing.ui.edu/ubuntu/ hardy universe
deb-src http://kambing.ui.edu/ubuntu/ hardy universe
deb http://kambing.ui.edu/ubuntu/ hardy-updates universe
deb-src http://kambing.ui.edu/ubuntu/ hardy-updates universe

deb http://kambing.ui.edu/ubuntu/ hardy multiverse
deb-src http://kambing.ui.edu/ubuntu/ hardy multiverse
deb http://kambing.ui.edu/ubuntu/ hardy-updates multiverse
deb-src http://kambing.ui.edu/ubuntu/ hardy-updates multiverse

# deb http://id.archive.ubuntu.com/ubuntu/ hardy-backports main restricted universe multiverse
# deb-src http://id.archive.ubuntu.com/ubuntu/ hardy-backports main restricted universe multiverse

# deb http://archive.canonical.com/ubuntu hardy partner
# deb-src http://archive.canonical.com/ubuntu hardy partner

deb http://kambing.ui.edu/ubuntu/ hardy-security main restricted
deb-src http://kambing.ui.edu/ubuntu/ hardy-security main restricted
deb http://kambing.ui.edu/ubuntu hardy-security universe
deb-src http://kambing.ui.edu/ubuntu hardy-security universe
deb http://kambing.ui.edu/ubuntu hardy-security multiverse
deb http://ubuntu.indika.net.id/ubuntu/ hardy universe multiverse
deb-src http://kambing.ui.edu/ubuntu hardy-security multiverse

Wget, The best downloader? (1)

Kemaren pas mau download file dari Free BSD bingung mau pake aplikasi apa…., ada teman yang menyarankan pake wget. Nah kemudian muncul pertanyaan,apa itu wget. Kemudian didorong oleh rasa penasaran,akhirnya semalaman cuman cari informasi tentang wget. Akhirnya, sedikit banyak aku tahu tentang wget.

Wget merupakan salah satu tool download command line yang paling terkenal, agar Anda bisa mendownload apa saja yang Anda suka, hanya yang Anda suka, dan kapan saja Anda suka. Berhati-hatilah jika menggunakan wget di tempat dengan koneksi Internet yang cepat, sebab kesalahan memakai opsi wget bisa berakibat Anda mendownload banyak halaman tanpa henti hingga beratus-ratus mega atau bergiga-giga. Juga sebaiknya tidak melakukan download masal secara berlebihan pada satu situs, sebab mungkin situs tersebut jadi overload dan terganggu aktivitasnya.

Tentu saja ada banyak tool download lain, baik berbasis grafis maupun command line. Tapi saya akan memfokuskan pada tool command line karena dua hal. Yang pertama, tool command line tersedia di server dan dapat diakses melalui telnet/SSH. Ini penting sekali agar Anda tidak harus selalu online selama download berlangsung. Juga akan meningkatkan efisiensi terutama jika mendownload ribuan file kecil-kecil, karena server umumnya memiliki latensi koneksi yang lebih rendah daripada koneksi dialup rumahan. Setelah semua file Anda download di server, Anda bisa mengemasnya dalam .zip atau .tar.gz dan baru mendownload satu file saja ke rumah. Ini mengirit waktu. Yang kedua, tool command line amat fleksibel, terutama jika dikombinasikan tool-tool command line lainnya. Akan saya demonstrasikan melalui beberapa contoh nanti.

Wget pertama kali ditulis tahun 1995 oleh Hrvoje Niksic dan dirilis di bawah lisensi GNU. Wget dikategorikan sebagai web client tool, WWW retrieval program, dan sering juga disebut web robot.

Installasi

# tar xfz wget-1.8.1.tar.gz
 
# cd wget-1.8.1
 
# ./configure --prefix=/usr
 
# make all install 
Tambahkan opsi --with-ssl di baris configure jika Anda ingin dukungan SSL. Setelah semuanya selesai, Anda akan menjumpai wget baru di /usr/bin/wget yang siap melaksanakan kehendak dan titah Baginda

Contoh-contoh Penggunaan Wget

1. Mengambil sebuah URL dengan wget

Cukup sebutkan URL (atau URL-URL) sebagai argumen wget.

$ wget http://mwmag.com
 
--22:41:14--  http://mwmag.com/
 
`index.html'
 
Resolving mwmag.com... done.
 
Connecting to mwmag.com[202.95.131.154]:80... connected.
 
HTTP request sent, awaiting response... 200 OK
 
Length: unspecified [text/html]
 
 
 
5,219                  4.98M/s
 
 
 
22:41:14 (4.98 MB/s) - `index.html' saved [5219]

Kita baru saja menyuruh wget untuk mengambil sebuah URL http://mwmag.com. Wget akan menyimpan ini di file index.html. Pertama-tama wget akan berusaha meresolve (mencari alamat IP) mwmag.com, melakukan koneksi ke server tersebut, lalu mengirim request HTTP untuk meminta URI / ke host mwmag.com.

Untuk mengambil beberapa file, sebutkan saja secara berurutan. http:// bersifat opsional dan boleh tidak kita sebutkan untuk mengirit ketikan.

$ wget mwmag.com/index01.html mwmag.com/index02.html
 
--22:48:12-- http://mwmag.com/index01.html
 
`index01.html'
 
Resolving mwmag.com... done.
 
Connecting to mwmag.com[202.95.131.154]:80... connected.
 
HTTP request sent, awaiting response... 200 OK
 
Length: unspecified 
 
 
 
6,191                  5.46K/s
 
 
 
22:48:14 (5.46 KB/s) - `index01.html' saved [6191]
 
 
 
http://mwmag.com/index02.html
 
`index02.html'
 
Connecting to mwmag.com[202.95.131.154]:80... connected.
 
HTTP request sent, awaiting response... 200 OK
 
Length: unspecified [text/html]
 
 
 
6,048   5.48K/s
 
 
 
22:48:16 (5.48 KB/s) - `index02.html' saved [6048] 
 
 
 
FINISHED --22:48:16--
 
Downloaded: 12,239 bytes in 2 files

2. Fasilitas “resume”

opsi -c (continue)

$ wget -c ftp://ftp.linux.tucows.com/pub/ISO/RedHat/enigma-i386-disc1.iso 

Tanpa opsi -c, jika koneksi putus maka wget akan berhenti, meninggalkan file yang baru setengah terdownload. Saat menjalankan wget lagi, Anda dapat menambahkan -c supaya wget berusaha meresume file setengah jadi itu. Agar praktis, saya biasa selalu menambahkan -c sebagai opsi standar agar resume selalu berusaha dilakukan.

Catatan: tentu saja tidak semua URL dapat diresume. Semua bergantung pada setting webserver. Konten dinamik hasil keluaran skrip misalnya, hampir selalu tidak dapat diresume. Ini berlaku juga bagi program-program download lainnya, jadi ini bukan sebuah keterbatasan wget.

Lawan dari -c adalah -nc (no-clobber). Jika download sebuah file terhenti di tengah, dan Anda menjalankan wget lagi dengan -nc, maka wget tidak akan mengutak-atik file yang baru setengah terdownload sebelumnya, melainkan akan menganggap file itu sudah diambil dan melanjutkan ke URL berikutnya (atau langsung selesai, jika tidak ada lagi URL yang harus didownload).

3. Fasilitas “retry”

Gunakan opsi -t (tries), diikuti sebuah angka.

Dengan opsi ini Anda dapat mengatur berapa kali wget sebaiknya melakukan retry jika koneksi putus di tengah-tengah. -t 2 berarti coba hanya dua kali. Sebutkan -t 0 untuk mencoba tanpa kunjung lelah (alias, sebanyak tak hingga kali). Umumnya memang -t 0 yang dipakai, karena toh kita tidak pernah tahu berapa kali koneksi akan putus di perjalanan. Mirip dengan fitur resume, retry ini hanya bisa dilakukan jika server yang kita mintai mendukungnya. Tepatnya, retry hanya mungkin jika server mengeluarkan header Content-Length, sehingga wget dapat tahu berapa ukuran asli file yang diminta (dan jadi tahu bahwa jika yang terdownload masih lebih kecil ukurannya, berarti memang belum selesai). File-file statik secara otomatis diberi Content-Length oleh IIS, Apache, atau webserver lainnya. Tapi konten dinamik (termasuk PHP/ASP/SSI misalnya) umumnya tidak memberikan Content-Length sehingga wget tidak dapat melakukan retry. Meskipun demikian, ada trik-trik untuk bisa tetap melakukan retry, yang akan ditunjukkan nanti.

Ada opsi lain yang berhubungan dengan retry, yaitu --waitretry, yaitu berapa lama jeda (dalam detik) wget harus menunggu sebelum melakukan koneksi ulang. Defaultnya adalah 0, yaitu langsung mencoba koneksi ulang. Jika server yang kita minta melakukan banning kepada peminta yang terlalu sering melakukan koneksi, maka kita bisa menunggu dulu beberapa saat sebelum retry.

Jadi, berikut perintah untuk melakukan retry terus sampai seluruh file terdownload, tapi menunggu 1 menit di setiap kali sebelum retry. Jangan lupa memberi -c, sebab jika tidak maka wget akan mendownload dari awal setiap kali retry (Meskipun memang, jika servernya tidak mendukung resume, maka dengan -c pun wget harus mendownload dari awal).

$ wget -c -t0 --waitretry 60 
ftp://ftp.linux.tucows.com/pub/ISO/RedHat/enigma-i386-disc1.iso 

Catatan: meskipun diset -t0, tapi wget akan langsung menyerah jika saat ingin retry ternyata server di ujung sana mati (Connection refused) atau ternyata filenya hilang atau berubah ukuran. Jika Anda yakin file itu masih ada di lokasi yang sama dan Anda ingin wget terus mencoba meskipun server sedang mati, maka bisa dipakai trik membungkus perintah wget dalam loop skrip sederhana. Wget akan mengembalikan status program 0 (sukses) jika file telah terdownload dengan sempurna, tapi 1 jika terputus. Karena itu . Berikut skrip shell Unix untuk melakukannya:

#!/bin/sh
 
# download terus cd red hat 7.2 sampe aku dapet!
 
# gak peduli putus berapa kali, gak peduli server di sana mati.
 
 
 
wget -c -t0 --waitretry 60 
 
ftp://ftp.linux.tucows.com/pub/ISO/RedHat/enigma-i386-disc1.iso
 
 
sleep 60
 
done

4. Cara buat download dan supaya bisa ditinggal pergi

Gunakan opsi -b (background).

$ wget -c -t0 –b 
 
http://research.google.com/contest/prog-contest-sample.tar
 
Continuing in background, pid 6294.
 
Output will be written to `wget-log' 

Karena ada -b, maka wget tidak akan menampilkan progress ke layar, melainkan semuanya akan ditulis dalam file log yang bernama wget-log. Jika di direktori yang sama kebetulan sudah ada file wget-log, maka log akan ditulis ke wget-log.1, dst. Jika Anda intip file log ini, maka isinya sebetulnya sama dengan laporan wget di mode foreground. Jadi wget menulis laporannya ke file dan bukan ke layar.

Setelah memberikan perintah wget (dan juga sebaiknya setelah Anda intip dulu sejenak wget-log untuk memastikan download sudah mulai), Anda dapat langsung log out dan mengecek lagi beberapa jam kemudian, atau keesokan harinya.

Jika Anda mendownload tanpa -b, lalu di tengah jalan karena tidak sabar menunggu Anda memutuskan ingin meninggalkan saja wget ke mode background, maka lakukan hal berikut: tekan Ctrl-Z, lalu ketik kill -HUP %1. Sinyal HUP akan memberi isyarat pada wget agar lalu mengarahkan output laporan ke wget-log dan tidak ke layar lagi. Baru setelah itu download bisa Anda tinggal.

5. Mendownload seluruh isi sebuah situs.

Gunakan opsi -r (recursive).

Di sinilah saat manfaat tool noninteraktif seperti wget membantu kita. Jika kita ingin mendownload seluruh situs lewat browser misalnya, maka Anda mungkin harus melakukan ratusan kali klik dan pemilihan menu. Membosankan sekali. Dengan tool seperti wget, maka sebuah halaman HTML yang dibaca akan diparse dan dicari link-linknya, kemudian masing-masing link ini akan ditelusuri untuk memperoleh dokumen berikutnya, dst. Dengan kombinasi -b, Anda bisa meninggalkan download dan besok-besoknya, seluruh situs sudah termirror buat Anda!

-r menyatakan pada wget bahwa kita ingin menelusuri link. Berikut contoh yang saya buat dan terletak di mwmag.com:

$ wget -r mwmag.com/issue/04/content/hack-wget/file/sample01.html

Di file sample01.html terdapat beberapa link. Wget akan memparse halaman HTML tersebut dan mengambil link-linknya. Dia tidak akan mengikuti link ke situs lain (mis: www.cnn.com) melainkan hanya ke host yang sama (mwmag.com). Halaman yang sudah diambil (mis: sample02.html yang dilink dari sample01.html) akan juga bernasib sama: diparse link-linknya dan diikuti oleh wget. Demikian seterusnya hingga seluruh link yang ada habis terjelajahi. Jika terdapat sejumlah cukup link di awal penelusuran, seluruh objek di mwmag.com yang terjamah dan publik akan bisa terjaring dan terdownload.

File-file yang didownload secara otomatis akan disimpan dalam struktur direktori mengikuti struktur URL asli. Misalnya, http://mwmag.com/issue/04/content/ akan disimpan di file index.html yang berada di subdirektori mwmag.com/issue/04/. Pengaturan ini akan memudahkan dalam mirroring (dijelaskan nanti). Catatan: Jika Anda ingin URL disimpan dalam struktur seperti ini meskipun tanpa harus melakukan download rekursif, beri opsi -x (force directories). Contoh: wget -x mwmag.com/issue/04/.

Pada umumnya Anda jarang butuh harus mendownload seluruh isi situs. Kadang hanya ingin mengambil hingga kedalaman tertentu saja, kadang hanya jenis file tertentu saja, kadang hanya ingin mengambil satu cabang situs saja (mis: /archive/2001/), atau Anda hanya ingin mengambil satu halaman beserta objek-objeknya saja (imej, JS/CSS) tanpa benar-benar bermaksud mendownload rekursif.

6. Mengambil situs satunet.com hingga tiga-empat level saja.

Gunakan -l (level).

Sebetulnya rekan kerja saya di satunet.com dulu benar-benar pernah minta ini. Dia anggota tim advertising yang ingin mendemonstrasikan portal Satunet ke calon pengiklan. Diinginkan agar situs satunet.com didownload ke laptop dan bisa dibrowse offline (“bisa diceklak-ceklik”). Tidak perlu seluruh isi situs (karena itu akan menghabiskan ruang disk ratusan MB), tapi cukup hingga tiga atau empat level saja agar jika kita mengklik sebuah halaman dari halaman depan, di halaman kedua itu kita masih bisa mengklik sesuatu, dan sekali lagi demikian.

Kita memberikan opsi -l untuk mengatur berapa level, atau kedalaman penelusuran. Jika tidak disebutkan (hanya -r), maka wget menganggap -l0, alias sampai kedalaman tak hingga (atau sampai semua link di situs ybs habis). Untuk memenuhi permintaan download empat level, kita berikan perintah ini:

$ wget -r -l4 -k http://satunet.com 

Untuk apa -k (convert links)? Opsi ini penting jika kita ingin hasil download bisa dibrowse offline. -k akan mengkonversi link-link absolut (ke http://satunet.com/...) sehingga menjadi link relatif.

Tip: Anda juga bisa tambahkan -c dan -t untuk menambah reliabilitas, tapi waktu itu saya mendownload dari jaringan yang sama, jadi tidak ada masalah dengan kecepatan atau stabilitas koneksi.

Catatan: Grab rekursif memakai -r, -l0 (apalagi jika nanti Anda menggunakan -H) potensial berbahaya, karena Anda tidak pernah tahu berapa ukuran total sebuah situs. Jika di situs tersebut terdapat link yang dihasilkan secara dinamik (mis: /browseProduct.cgi?cat=foo yang lalu memuntahkan puluhan link lain), maka Anda bisa saja pada akhirnya menuai beratus-ratus halaman yang tidak diinginkan. Semakin cepat koneksi ke server, semakin berbahayalah, sebab Anda bisa membuat wget berkelana dan tersesat di rimba Web sambil mendownload segudang sampah.

7. Mengambil hanya halaman HTML dari tucows.mweb.co.id (dengan kata lain, ingin mengambil katalog HTML-nya).

Gunakan opsi -A (accept list), diikuti dengan daftar akhiran file yang diinginkan dan dipisahkan dengan koma.

$ wget -r -A htm,html -k tucows.mweb.co.id

8. Mengambil semua gambar yang ada di situs satulelaki.com.

Mungkin Anda berpikir menggunakan -A gif,jpg,jpeg. Tapi tunggu dulu: tanpa mengambil halaman HTML-nya juga, bagaimana Anda bisa menelusuri halaman demi halaman untuk menemukan gambarnya?

$ wget –c –t0 -r -A htm,html,gif,jpg,jpeg –k satulelaki.com

9. Mengambil semua file yang ada di mwmag.com, tapi tidak ingin mengambil PDF-nya.

Gunakan opsi -R (reject list). Perhatikan, ini berbeda dengan -r (huruf kecil). -R adalah lawan dari -A, yaitu untuk mengambil semua file berakhiran apa saja, kecuali yang disebutkan di daftar hitam.

$ wget -r –k -R pdf mwmag.com

10. Mengambil halaman depan www.detik.com lengkap dengan gambar, iklan, dan semuanya.

Gunakan opsi -p (page requisites).

$ wget -p www.detik.com

11. Mengambil seluruh file di www.master.web.id/tutorial/ (tapi tidak ingin mengambil file di section yang lain).

Gunakan opsi -np (no parent) sebagai pembatas -r. Dengan cara ini, -r tidak akan menelusuri ke atas path.

$ wget -r –k –np –l0 www.master.web.id/tutorial/

12. Mngambil keseluruhan file HTML dan gambar di www.master.web.id/, tapi tidak ingin mengambil bagian forum, cgi-bin, download, dan daerah-daerah dinamik lainnya yang tidak diinginkan.

Gunakan opsi -X (exclude directories), diikuti daftar direktori yang tidak ingin diikutsertakan dan dipisahkan dengan koma. Bedakan ini dengan -R. -R membatasi jenis file, -X membatasi direktori.

$ wget –r –l0 –A htm,html,gif,jpg,jpeg www.master.web.id 
 

13. Download yang sebelumnya sudah selesai, tapi saya lupa saya ingin mengambil juga file-file PNG, ZIP, FLA, dan SWF. Tapi saya tidak ingin mendownload semuanya dari awal.

Masih ingat opsi -nc? Kali ini berguna buat kita.

$ wget -r –l0 –nc –A htm,html,gif,jpg,jpeg,png,zip,fla,swf www.master.web.id 
  

File-file yang sudah didownload tidak akan didownload lagi, tapi tetap diparse untuk mencari link.

Gunakan opsi -X (exclude directories), diikuti daftar direktori yang tidak ingin diikutsertakan dan dipisahkan dengan koma. Bedakan ini dengan -R. -R membatasi jenis file, sementara -X membatasi direktori.

Ada lagi opsi -I (include directories) yang merupakan kebalikan -X. Silakan dicoba sendiri efeknya.

Tambahan:

Mirroring

Keinginan: Saya sudah mendownload seluruh cabang situs steven.haryan.to/email/. Sekarang saya lihat beberapa dokumen ada yang diupdate. Saya ingin pula mengupdate kopi lokal saya, tapi malas jika harus mendownload ulang semuanya.

Jawab: gunakan opsi -m (mirror). Dengan menyebutkan -m saja, Anda telah menginstruksikan wget untuk melakukan -r -N -l0 -nr. Detail tiap opsi bisa Anda baca di manual wget, yang jelas, -m ini digunakan untuk melakukan mirroring sebuah situs dan untuk mengupdatenya manakala perlu.

$ wget -m -np steven.haryan.to/email/

Pertama kali Anda menjalankan ini hingga selesai, cabang /email di homepage saya telah Anda download. Jika Anda jalankan lagi untuk kedua kalinya, wget akan mengecek dan membandingkan usia tiap file yang telah didownload dengan yang di server. Jika tidak ada yang lebih baru dari server, maka tidak ada yang didownload ulang. Enak bukan?

Daftar Repository Lokal (Indonesia) Ubuntu

Hampir semua proses penambahan dan update aplikasi dalam Ubuntu membutuhkan koneksi internet. Bagi pengguna yang tinggal di Indonesia, ada beberapa server repositori lokal yang menyediakan paket-paket aplikasi untuk Ubuntu. Diharapkan, dengan menggunakan repositori lokal, kita bisa mengunduh paket update maupun aplikasi dengan lebih cepat.

Update: Link repositori telah diperbaharui ke Ubuntu 8.04 Hardy Heron.

Berikut adalah daftar beberapa server repositori lokal yang menyediakan paket untuk Ubuntu 7.10 Gutsy Gibbon Ubuntu 8.04 Hardy Heron: (dari Yodi)

mirror.its.ac.id (ITS, INHERENT)
deb http://mirror.its.ac.id/ubuntu hardy main multiverse restricted universe
deb http://mirror.its.ac.id/ubuntu hardy-security main multiverse restricted universe
deb http://mirror.its.ac.id/ubuntu hardy-backports main multiverse restricted universe
deb http://mirror.its.ac.id/ubuntu hardy-updates main multiverse restricted universe

kambing.ui.edu (UI, Telkom, Indosat, OpenIXP, INHERENT)
deb http://kambing.ui.edu/ubuntu hardy main restricted universe multiverse
deb http://kambing.ui.edu/ubuntu hardy-updates main restricted universe multiverse
deb http://kambing.ui.edu/ubuntu hardy-security main restricted universe multiverse
deb http://kambing.ui.edu/ubuntu hardy-backports main restricted universe multiverse
deb http://kambing.ui.edu/ubuntu hardy-proposed main restricted universe multiverse

mirror.cbn.net.id (OpenIXP)
deb http://ubuntu.cbn.net.id/Ubuntu hardy main restricted universe multiverse
deb http://ubuntu.cbn.net.id/Ubuntu hardy-updates main restricted universe multiverse
deb http://ubuntu.cbn.net.id/Ubuntu hardy-security main restricted universe multiverse
deb http://ubuntu.cbn.net.id/Ubuntu hardy-backports main restricted universe multiverse
deb http://ubuntu.cbn.net.id/Ubuntu hardy-proposed main restricted universe multiverse

komo.vlsm.org
deb http://komo.vlsm.org/ubuntu hardy main restricted universe multiverse
deb http://komo.vlsm.org/ubuntu hardy-updates main restricted universe multiverse
deb http://komo.vlsm.org/ubuntu hardy-security main restricted universe multiverse
deb http://komo.vlsm.org/ubuntu hardy-backports main restricted universe multiverse
deb http://komo.vlsm.org/ubuntu hardy-proposed main restricted universe multiverse

indika.net.id (OpenIXP)
deb http://ubuntu.indika.net.id/ hardy main restricted universe multiverse
deb http://ubuntu.indika.net.id/ hardy-updates main restricted universe multiverse
deb http://ubuntu.indika.net.id/ hardy-security main restricted universe multiverse
deb http://ubuntu.indika.net.id/ hardy-backports main restricted universe multiverse
deb http://ubuntu.indika.net.id/ hardy-proposed main restricted universe multiverse

ftp.itb.ac.id (ITB, INHERENT)
deb ftp://ftp.itb.ac.id/pub/ubuntu hardy main restricted universe multiverse
deb ftp://ftp.itb.ac.id/pub/ubuntu hardy-updates main restricted universe multiverse
deb ftp://ftp.itb.ac.id/pub/ubuntu hardy-security main restricted universe multiverse
deb ftp://ftp.itb.ac.id/pub/ubuntu hardy-backports main restricted universe multiverse
deb ftp://ftp.itb.ac.id/pub/ubuntu hardy-proposed main restricted universe multiverse

www.foss-id.web.id (Telkom)
deb http://dl2.foss-id.web.id/ubuntu hardy main restricted universe multiverse
deb http://dl2.foss-id.web.id/ubuntu hardy-updates main restricted universe multiverse
deb http://dl2.foss-id.web.id/ubuntu hardy-security main restricted universe multiverse
deb http://dl2.foss-id.web.id/ubuntu hardy-backports main restricted universe multiverse
deb http://dl2.foss-id.web.id/ubuntu hardy-proposed main restricted universe multiverse

Untuk mengubah daftar repositori, ada 2 cara, yaitu melalui “Synaptic Package Manager” dan melalui terminal:

Melalui Synaptic Package Manager:

  1. Buka menu: System | Administration | Synaptic Package Manager
  2. Pilih menu: Settings | Repositories
  3. Pilih tab “Third-Party Software”
  4. Pilih “Add”
  5. Masukkan baris pertama pada salah satu server repositori pada daftar di atas. Misalnya:

    deb http://kambing.ui.edu/ubuntu gutsy main restricted universe multiverse

  6. Klik “Add” lagi, lalu isikan baris berikutnya. Lakukan langkah ini hingga semua baris pada server tersebut selesai anda masukkan.
  7. Setelah selesai, centang setiap item pada daftar “Third-Party Software”
  8. Klik “Close”
  9. Klik “Reload” pada ikon di sebelah kiri atas

Melalui terminal:

  1. Masukkan perintah berikut:

    sudo gedit /etc/apt/sources.list

  2. Hapus seluruh baris pada file ini ^^ dan ganti dengan baris-baris pada salah satu server dari daftar di atas. Contoh:

    deb http://komo.vlsm.org/ubuntu hardy main restricted universe multiverse
    deb http://komo.vlsm.org/ubuntu hardy-updates main restricted universe multiverse
    deb http://komo.vlsm.org/ubuntu hardy-security main restricted universe multiverse
    deb http://komo.vlsm.org/ubuntu hardy-backports main restricted universe multiverse
    deb http://komo.vlsm.org/ubuntu hardy-proposed main restricted universe multiverse

  3. Melalui terminal, masukkan perintah berikut:

    sudo apt-get update


Sumber http://animaster.wordpress.com/......repository-lokal...



Playing Restricted Formats

Follow these steps to play most common multimedia formats, including MP3, DVD, Flash, Quicktime, WMA and WMV, including both standalone files and content embedded in web pages.

Ubuntu 8.04

Synaptic
  • Go to ApplicationsAdd/Remove...


  • Set Show: to All available applications

  • Search for ubuntu-restricted-extras and install it. Note that there is also xubuntu-restricted-extras and kubuntu-restricted-extras.

Or open the Terminal, and execute the following command:

  • sudo apt-get install ubuntu-restricted-extras

Ubuntu 7.10

Synaptic
  • Go to ApplicationsAdd/Remove...

  • Set Show: to All available applications

  • Search for ubuntu-restricted-extras and install it. Note that there is also xubuntu-restricted-extras and kubuntu-restricted-extras.

Or open the Terminal, and execute the following command:

  • sudo apt-get install ubuntu-restricted-extras

Ubuntu 7.04

  • Click Applications → Add/Remove. In the top right, change the setting to All available applications. Then select Other in the left panel and then select the Ubuntu restricted extras package. Click OK.

  • To play most DVDs you'll need the libdvdcss2 package. This package is available using Medibuntu. This is a third party package, and not supported by Canonical.

Note: If DVD playback fails, and you've never played any DVD before on your system, you may need the regionset package to initially set the drive's region.

  • Some external codecs may be needed in order to play certain proprietary formats such as Apple Quicktime or RealVideo. These external codecs are available in the third-party repository of Medibuntu.

Ubuntu 6.06 and 6.10

Install the following packages to play most proprietary formats using the Totem and Rhythmbox applications, both of which are included in Ubuntu by default. Since the version of Totem that comes with Ubuntu does not yet play DVDs, the list below also includes packages for the GXine and Ogle players, which do.

  • Ensure the relevant repositories are enabled. Click System → Administration → Synaptic Package Manager → Settings → Repositories and then click Add. Check the Community maintained (Universe) and Non-free (Multiverse) boxes, click Add. Close the Software Repository window, and click Reload in Synaptic Package Manager.

  • Install the packages. While you could install packages individually using Synaptic, here is one case where any Ubuntu user can save a lot of time by using the command line. Quit out of Synaptic, then click Application → Accessories → Terminal and paste the following command:

sudo apt-get install gstreamer0.10-pitfdll gstreamer0.10-ffmpeg gstreamer0.10-plugins-bad gstreamer0.10-plugins-bad-multiverse gstreamer0.10-plugins-ugly gstreamer0.10-plugins-ugly-multiverse gxine libxine-main1 libxine-extracodecs ogle ogle-gui
  • To play most DVDs you'll need the libdvdcss2 package. This package is available using Medibuntu. This is a third party package, and not supported by Canonical.

Note: If DVD playback fails, and you've never played any DVD before on your system, you may need the regionset package to initially set the drives region.

ROOT Kit

setelah ketemu penyakitnya dan baca2 mbah google

untuk yg pake mesin sarge, tambahkan apt source ke versi sid

deb-src http://kebo.vlsm.org/debian sid main contrib non-free

terus install rkhunter ama chkrootkit <-- ini 2 tool untuk ngetes ada
rootkit (program pencuri user "root") apa tidak di mesin kita,...

apt-get -b source rkhunter chkrootkit

terus di cek dengan menjalankan

Linux # chkrootkit

disitu ntar ketauan nama rootkitnya,...

di server www/mail kena banyak rootkit :p (admin ne turu tok soale), ada
t0rn, showtee dll dan semua terlihat di log terserangnya pada hari
sabtu-minggu, yg kemaren terakhir pada tgl 18 maret.

abis itu cari google ada rootkit apa aja yg dah menginfeksi... dan
bagaimana remove nya,...untuk sementara server www/mail normal, tetapi
belum ketahuan darimana masuknya, yang pasti lewat web cuma webnya sapa yg
belum kelar...
moby:~# chkrootkit
ROOTDIR is `/'
Checking `amd'... not found
Checking `basename'... not infected
Checking `biff'... not found
Checking `chfn'... not infected
Checking `chsh'... not infected
Checking `cron'... not infected
Checking `crontab'... not infected
Checking `date'... not infected
Checking `du'... not infected
Checking `dirname'... not infected
Checking `echo'... not infected
Checking `egrep'... not infected
Checking `env'... not infected
Checking `find'... not infected
Checking `fingerd'... not found
Checking `gpm'... not infected
Checking `grep'... not infected
Checking `hdparm'... not found
Checking `su'... not infected
Checking `ifconfig'... not infected
Checking `inetd'... not infected
Checking `inetdconf'... not infected
Checking `identd'... not found
Checking `init'... not infected
Checking `killall'... not infected
Checking `ldsopreload'... not infected
Checking `login'... not infected
Checking `ls'... not infected
Checking `lsof'... not infected
Checking `mail'... not infected
Checking `mingetty'... not found
Checking `netstat'... not infected
Checking `named'... not found
Checking `passwd'... not infected
Checking `pidof'... not infected
Checking `pop2'... not found
Checking `pop3'... not found
Checking `ps'... not infected
Checking `pstree'... not infected
Checking `rpcinfo'... not infected
Checking `rlogind'... not found
Checking `rshd'... not found
Checking `slogin'... not infected
Checking `sendmail'... not infected
Checking `sshd'... not infected
Checking `syslogd'... not tested
Checking `tar'... not infected
Checking `tcpd'... not infected
Checking `tcpdump'... not infected
Checking `top'... not infected
Checking `telnetd'... not found
Checking `timed'... not found
Checking `traceroute'... not infected
Checking `vdir'... not infected
Checking `w'... not infected
Checking `write'... not infected
Checking `aliens'... no suspect files
Searching for sniffer's logs, it may take a while... nothing found
Searching for HiDrootkit's default dir... nothing found
Searching for t0rn's default files and dirs... nothing found
Searching for t0rn's v8 defaults... nothing found
Searching for Lion Worm default files and dirs... nothing found
Searching for RSHA's default files and dir... nothing found
Searching for RH-Sharpe's default files... nothing found
Searching for Ambient's rootkit (ark) default files and dirs... nothing found
Searching for suspicious files and dirs, it may take a while... nothing found
Searching for LPD Worm files and dirs... nothing found
Searching for Ramen Worm files and dirs... nothing found
Searching for Maniac files and dirs... nothing found
Searching for RK17 files and dirs... nothing found
Searching for Ducoci rootkit... nothing found
Searching for Adore Worm... nothing found
Searching for ShitC Worm... nothing found
Searching for Omega Worm... nothing found
Searching for Sadmind/IIS Worm... nothing found
Searching for MonKit... nothing found
Searching for Showtee... nothing found
Searching for OpticKit... nothing found
Searching for T.R.K... nothing found
Searching for Mithra... nothing found
Searching for OBSD rk v1... nothing found
Searching for LOC rootkit... nothing found
Searching for Romanian rootkit... nothing found
Searching for Suckit rootkit... nothing found
Searching for Volc rootkit... nothing found
Searching for Gold2 rootkit... nothing found
Searching for TC2 Worm default files and dirs... nothing found
Searching for Anonoying rootkit default files and dirs... nothing found
Searching for ZK rootkit default files and dirs... nothing found
Searching for ShKit rootkit default files and dirs... nothing found
Searching for AjaKit rootkit default files and dirs... nothing found
Searching for zaRwT rootkit default files and dirs... nothing found
Searching for Madalin rootkit default files... nothing found
Searching for Fu rootkit default files... nothing found
Searching for ESRK rootkit default files... nothing found
Searching for rootedoor... nothing found
Searching for ENYELKM rootkit default files... nothing found
Searching for anomalies in shell history files... nothing found
Checking `asp'... not infected
Checking `bindshell'... not infected
Checking `lkm'... chkproc: nothing detected
Checking `rexedcs'... not found
Checking `sniffer'... lo: not promisc and no packet sniffer sockets
eth0: PACKET SNIFFER(/usr/sbin/snort[23158]

)
Checking `w55808'... not infected
Checking `wted'... chkwtmp: nothing deleted
Checking `scalper'... not infected
Checking `slapper'... not infected
Checking `z2'... chklastlog: nothing deleted

dah akhirnya agak lega deh ,...
segitu dulu laporannya -----

Hacker's LOVE LETTER

Seandainya hatimu adalah sebuah system,
maka aku akan scan kamu untuk mengetahui port mana yang terbuka Sehingga
tidak ada keraguan saat aku c:> nc -l -o -v -e ke hatimu,
tapi aku hanya berani ping di belakang anonymouse proxy,
inikah rasanya jatuh cinta
sehingga membuatku seperti pecundang atau aku memang pecundang sejati
whatever!

Seandainya hatimu adalah sebuah system,
ingin rasanya aku manfaatkan vulnerabilitiesmu,
pake PHP injection Terus aku ls -la; find / -perm 777 -type d,
sehingga aku tau kalo di hatimu ada folder yang bisa ditulisi atau adakah
free space buat aku?.
apa aku harus pasang backdor "Remote Connect-Back Shell"
jadi aku tinggal nunggu koneksi dari kamu saja, biar aku tidak merana
seperti ini.

Seandainya hatimu adalah sebuah system,
saat semua request-ku diterima aku akan nogkrong terus di bugtraq
untuk mengetahui bug terbarumu maka aku akan patch n pacth terus,
aku akan jaga service-mu jangan sampai crash n aku akan menjadi firewallmu
aku akan pasang portsentry,
dan menyeting error pagemu " The page cannot be found Coz Has Been Owned
by Someone get out!"
aku janji gak bakalan ada macelinious program
atau service yang hidden,
karena aku sangat sayang dan mencintaimu.

Seandainya hatimu adalah sebuah system,
jangan ada kata "You dont have permission to access it" untuk aku,
kalau ga mau di ping flood Atau DDos Attack jangan ah....! kamu harus
menjadi sang bidadari penyelamatku.

Seandainya hatimu adalah sebuah system, ...?

Tapi sayang hatimu bukanlah sebuah system,
kamu adalah sang bidadari impianku, yang telah mengacaukan systemku!
Suatu saat nanti aku akan datang n mengatakan kalau di hatiku sudah
terinfeksi virus yang Menghanyutkan,
Ga ada anti virus yang dapat menangkalnya selain ...kamu.