Big Data

Oleh : Wimpi Handoko 

500khddBagi orang awam, mungkin “Big Data” adalah sebuah “buzzword” teknologi informasi yang menggambarkan data dalam jumlah yang besar dan luas.

Bagi mereka yang berkecimpung dalam teknologi informasi, “Big Data” merupakan topik yang sedang marak diperbincangkan, dikaji dan diwacanakan sebagai lahan industri baru menjelang pertengahan abad ke 21.

Seperti air yang kita gunakan di rumah tangga kita. Jika air diambil dari dalam tanah oleh pompa akan dinaikkan ke tangki air yang terletak di menara. Karena pemakaian air kita lebih sedikit dibanding dengan air yang tertampung, kadangkala katup penutup otomatis rusak dan air terus mengisi tangki hingga meluber sehingga pompa kita matikan. Nah bayangkan kalau pompanya tidak bisa mati dan katup otomatis tangki tidak berfungsi sehingga air akan mengalir terus ke tangki, sehingga kita perlu tambah tangki, tambah tangki, tambah tangki lagi agar air tersebut tidak mubazir terbuang kemana-mana. Begitu banyaknya air yang tertampung lalu mau kita apakan? Seorang wirausaha tentunya akan punya ide untuk membuat jaringan pipa air agar air bisa dimanfaatkan untuk irigasi, buka bengkel cuci mobil, bikin usaha laundry kiloan, usaha MCK umum, kemasan air mineral dan seterusnya.

Nah, bayangkan kalau air yang mengalir terus menerus tadi adalah data, dan data tersebut tidak henti-hentinya sehingga jika tidak diberdayakan, data yang tertampung akan mubazir. Nah, perumpamaan tersebut secara sederhana  menggambarkan apa itu “Big Data”.

Semenjak diciptakannya world wide web (www) disertai jaringan fungsi internetnya, manusia di dunia telah menghimpun begitu banyak data yang tersimpan di komputer pribadi, USB, external hardisk, server, main frame, bank data dan tempat simpan cloud (ATMnya data). Begitu besarnya data yang tertampung hingga diperlukan istilah ukuran volume ekstra besar seperti petabytes (1.024 terabytes) atau exabytes (1.024 petabytes), ukuran yang jauh lebih besar dari yang lazim kita gunakan seperi gigabytes. Bayangkan, di tahun 2012 saja, di dunia terkumpul data sebanyak 2.5 exabytes setiap hari! Dan itu tidak akan berhenti selama manusia masih menggunakan komputer dan internet! Jadi mau diapakan data yang sebegitu banyaknya?

Organisasi sederhana yang menggunakan sistem TI yang lazimnya digunakan untuk operasional sehari-hari mungkin tidak akan mampu menyortir “big data” ini untuk manfaat perusahaan mereka. Mengingat besarnya serta adanya keanekaragaman data yang terhimpun diperlukan sistem pengelolaan yang lebih maju baik dari segi analis maupun algoritmenya agar bisa menangkap data yang bisa bermanfaat. Apapun perangkat lunak maupun keras yang digunakan untuk pengelolaan “big data” harus bisa berhadapan dengan karakteristik “big data”:

  • Volume: besaran data yang terhimpun akan menentukan banyaknya data yang bermanfaat. Makin besar volumenya, makin besar kemungkinan menemukan data yang dikehendaki dan bermanfaat.
  • Keanekaragaman: data yang terhimpun terdiri dari berbagai macam, mulai dari teks sederhana, grafik, angka hingga video.
  • Kecepatan: kecepatan data yang masuk setiap saat yang perlu disortir dan waktu agar sistem bisa menyortir data tersebut sebelum data baru lainnya masuk.
  • Variabel: faktor data yang setiap saat berubah-ubah sehingga banyak yang tidak konsisten.
  • Kebenaran: keabsahan sebuah data tergantung dari sumbernya karena bisa jadi banyak data namun belum bisa dipertanggung jawabkan.
  • Kompleksitas: mengelola data dari berbagai narasumber agar bisa disortir dan dikaitkan satu sama lainnya untuk diambil manfaatnya adalah proses yang rumit, panjang dan lama.

 Dibalik itu semua, kita bisa bayangkan dahsyatnya volume data ciptaan manusia di setiap komputer, USB, memory card, external disk, server, mainframe dan cloud di dunia ini. Siapa tahu  kelak sekelompok ilmuwan jika bisa menyortir dan mengelola data tersebut berhasil melakukan penemuan teknologi baru: Air laut sebagai pengganti bensin? Panen padi sebulan sekali? Gurun pasir untuk tanam jagung?

 

Sumber gambar : http://craphound.com/images/500khdd.jpg