Minggu, 18 Juni 2017

UBIQUITOUS COMPUTING Tugas Pengantar Komputasi Modern (12/06/2017) (Nama : Davin Dirgantara | NPM : 52413056 | Kelas : 4IA17)

UBIQUITOUS COMPUTING


Disini akan menjelaskan upaya untuk menggambarkan bentuk komputasi yang akan terjadi dalam beberapa tahun ke depan (sekarang sudah ada tetapi terbatas). Secara khusus, ini tentang visi kekuatan pemrosesan sehingga dapat didistribusikan ke seluruh penjuru lingkungan. 

Bisa disebut juga Komputasi Pervasif, juga disebut "komputasi di mana-mana" (ubiquitous Computing), adalah tren dari meningkatnya kemampuan komputasi embedding (umumnya dalam bentuk mikroprosesor) ke objek sehari-hari agar komunikasi mereka efektif dan melakukan tugas yang berguna dengan cara yang meminimalkan kebutuhan pengguna akhir untuk berinteraksi dengan komputer seperti Komputer. Perangkat komputasi ini luas dan selalu terhubung dengan jaringan dan selalu tersedia.





Tidak seperti komputasi desktop, komputasi ini dapat terjadi dengan perangkat apa pun, kapan saja, di sembarang tempat dan dalam format data di semua jaringan, dan dapat mengalihkan tugas dari satu komputer ke komputer lainnya seperti misalnya, pengguna berpindah dari mobil ke mobilnya kantor. Dengan demikian, perangkat komputasi yang luas telah berevolusi untuk mencakup tidak hanya laptop, notebook dan smartphone, tapi juga tablet, perangkat yang dapat dipakai, sistem pencahayaan, peralatan dan sensor, dan sebagainya.

Tujuan dari "komputasi yang meluas" (Pervasive Computing) adalah membuat perangkat "cerdas", sehingga menciptakan jaringan sensor yang mampu mengumpulkan, memproses dan mengirim data, dan akhirnya, berkomunikasi sebagai sarana untuk menyesuaikan diri dengan konteks dan aktivitas data; Intinya, sebuah jaringan yang bisa memahami lingkungannya dan memperbaiki pengalaman dan kualitas hidup manusia.

Sering dianggap sebagai penerus komputasi mobile, "komputasi di mana-mana" kemudian, "komputasi yang meluas", umumnya melibatkan teknologi komunikasi dan jaringan nirkabel, perangkat seluler, embedded system, komputer yang dapat dikenakan, tag RFID, middleware dan agen perangkat lunak. Kemampuan internet, pengenalan suara dan kecerdasan buatan sering juga disertakan.

Aplikasi komputasi yang meluas dapat mencakup energi, militer, keselamatan, konsumen, perawatan kesehatan, produksi dan logistik.

Contoh komputasi yang meluas adalah Apple Watch yang menginformasikan pengguna tentang panggilan telepon dan mengizinkannya menyelesaikan panggilan melalui arloji. Atau, ketika pengguna terdaftar untuk layanan streaming musik Amazon meminta perangkat Echo untuk memutar lagu, dan lagu tersebut diputar tanpa intervensi pengguna lainnya.

Sejarah komputasi Ubiquitous
Komputasi ini pertama kali dipelopori di Laboratorium Penelitian Olivetti di Cambridge Inggris, di mana Active Badge, sebuah "klip-on komputer" seukuran kartu identitas karyawan, diciptakan, memungkinkan perusahaan untuk melacak lokasi orang-orang di sebuah bangunan, Serta benda-benda yang mereka lekatkan.



Perbedaan antara Ubiquitous Computing dengan Cloud, Mobile, Grid Computing 

Aspek yang telah saya mengerti membuat saya berpendapat Ubiquitous Computing ini adalah gabungan dari semua 3 komputasi sebelumnya. karena sama-sama mengakses sumber dari sumber lain melalui jaringan tertentu atau internet dan berbagai resources. tetapi ubiquitous computing lebih leluasa terhadap perangkat yang digunakan karena selama perangkat ini terkoneksi di jaringan dan mengerjakan tugas dari server/sumber maka bisa disebut ubiquitous, seperti IoT dalam hal otomotif yaitu mobil yang dapat mengendarainya sendiri, smart home yang dapat di kontrol dimana saja selama aplikasi tersebut terhubung dan jalan. 




dengan bergitu ubiquitous computing mempunyai perangkat yang lebih beragam selama perangkat tersebut terkoneksi ke jaringan yang ditentukan.



Perbedaan dengan cloud computing adalah cloud computing terpaku pada komputer dengan server komputer yang berada pada jaringan tertentu, mobile computing adalah cloud computing yang bisa dibawa kemana-mana, grid computing akan membuat cloud computing menjadi skala yang lebih besar dengan banyak sistem operasi untuk tujuan tertentu.

Ubiquitous bisa memakai campuran dari itu semua dan perangkat yang sngat beragam seperti cctv dicampur sensor yang dapat mengetahui gerak gerik kriminal yang dicari dengan banyak sumber di perangkat-perangkat tersebut.

  



http://internetofthingsagenda.techtarget.com/definition/pervasive-computing-ubiquitous-computing

https://www.researchgate.net/figure/264436564_fig1_Figure-1-Global-ubiquitous-computing-environment-vision



Senin, 01 Mei 2017

Tugas Pengantar Komputasi Modern Grid Computing (02/05/2017) (Nama : Davin Dirgantara | NPM : 52413056 | Kelas : 4IA17)

Komputasi Grid (Grid Computing)


Seorang ilmuwan yang mempelajari protein menggunakkan komputer dan menggunakan keseluruhan jaringan komputer untuk menganalisis data. Seorang pengusaha mengakses jaringan perusahaannya melalui PDA untuk meramalkan masa depan suatu saham tertentu. Seorang pejabat Angkatan Darat mengakses dan mengkoordinasikan sumber daya komputer di tiga jaringan militer yang berbeda untuk merumuskan strategi pertempuran. Semua skenario ini memiliki satu kesamaan: Mereka mengandalkan sebuah konsep yang disebut Komputasi Grid (Grid Computing).

Pada tingkat yang paling dasar, komputasi grid adalah jaringan komputer di mana setiap sumber daya komputer dibagikan dengan setiap komputer lain di sistem. Memproses daya, memori dan penyimpanan data adalah sumber daya komunitas yang dapat dimanfaatkan oleh pengguna yang berwenang untuk memanfaatkan dan memanfaatkan tugas tertentu. Sistem komputasi grid dapat disederhanakan dengan kumpulan komputer serupa yang berjalan pada sistem operasi yang sama atau serumit sistem antar jaringan yang terdiri dari setiap platform komputer yang dapat dipikirkan.
Konsep komputasi grid bukanlah hal baru ini hanya jenis lain komputasi terdistribusi khusus. Dalam komputasi terdistribusi, komputer yang berbeda dalam jaringan yang sama berbagi satu atau lebih sumber daya. Dalam sistem komputasi grid yang ideal, setiap sumber daya dibagi, mengubah jaringan komputer menjadi superkomputer yang hebat. Dengan antarmuka pengguna yang tepat, mengakses sistem komputasi grid tidak akan berbeda dengan mengakses sumber daya mesin lokal. Setiap komputer yang berwenang akan memiliki akses ke kapasitas pemrosesan dan penyimpanan yang sangat besar.

Meski konsepnya tidak baru, namun juga belum disempurnakan. Ilmuwan komputer, programmer dan insinyur masih berupaya menciptakan, menetapkan dan menerapkan standar dan protokol. Saat ini, banyak sistem komputer grid yang ada bergantung pada perangkat lunak dan perangkat berpemilik. Begitu orang menyetujui standar dan protokol yang andal, akan lebih mudah dan efisien bagi organisasi untuk mengadopsi model komputasi grid.

Sistem komputasi grid bekerja berdasarkan asas sumber daya gabungan (pooled resource). Katakanlah beberapa teman memutuskan untuk melakukan perjalanan berkemah. Anda memiliki sebuah tenda besar, jadi Anda secara sukarela membagikannya dengan yang lain. Salah satu teman Anda menawarkan untuk membawa makanan dan yang lainnya mengatakan bahwa dia akan mengantarkan seluruh kelompok ke SUVnya. Begitu dalam perjalanan, ketiganya berbagi pengetahuan dan keterampilan untuk membuat perjalanan menyenangkan dan nyaman. Jika Anda melakukan perjalanan sendiri, Anda memerlukan lebih banyak waktu untuk mengumpulkan sumber daya yang Anda perlukan dan Anda mungkin harus bekerja lebih keras dalam perjalanan itu sendiri.

Sistem komputasi grid menggunakan konsep yang sama: membagikan muatan ke beberapa komputer untuk menyelesaikan tugas dengan lebih efisien dan cepat. Sebelum melangkah lebih jauh, mari kita lihat sekilas sumber daya komputer:

  • Unit pemrosesan pusat (CPU): adalah mikroprosesor yang melakukan operasi matematis dan mengarahkan data ke lokasi memori yang berbeda. Komputer bisa memiliki lebih dari satu CPU.
  • Memori: Secara umum, memori komputer adalah semacam penyimpanan elektronik sementara. Memori menyimpan data yang relevan dekat dengan mikroprosesor. Tanpa memori, mikroprosesor harus mencari dan mengambil data dari perangkat penyimpanan yang lebih permanen seperti hard disk drive.
  • Penyimpanan: Dalam istilah komputasi grid, penyimpanan mengacu pada perangkat penyimpanan data permanen seperti hard disk drive atau database.
Sistem komputasi grid menghubungkan sumber daya komputer bersama-sama dengan cara yang memungkinkan seseorang menggunakan satu komputer untuk mengakses dan memanfaatkan kekuatan yang terkumpul dari semua komputer di sistem. Bagi pengguna individual, seolah-olah komputer pengguna telah berubah menjadi superkomputer.

KOMPONEN KOMPUTASI GRID



  • Gram (Grid Resources Allocation & Management). Komponen ini dibuat untuk mengatur seluruh sumberdaya komputasi yang tersedia dalam sebuah sistem komputasi grid. Pengaturan ini termasuk eksekusi program pada seluruh komputer yang tergabung dalam sistem komputasi grid, mulai dari inisiasi, monitoring, sampai dengan penjadwalan dan koordinasi antar proses yang terjadi dalam sistem tersebut. Juga dapat berkoordinasi dengan sistem-sistem pengaturan sumber daya yang telah ada sebelumnya. Dengan mekanisme ini program-program yang telah dibuat sebelumnya tidak perlu dibangun ulang atau bila dimodifikasi, modifikasinya minimum.
  • RFT/GridFTP (Reliable File Transfer/Grid File Transfer Protocol). Komponen ini dibuat agar pengguna dapat mengakses data yang berukuran besar dari semua simpul komputasi yang telah tergabung dalam sebuah sistem komputasi secara efisien. Hal ini tentu saja berpengaruh karena kinerja komputasi tidak hanya bergantung pada kecepatan komputer yang tergabung dalam mengeksekusi program, tapi juga seberapa cepat data yang dibutuhkan dapat diakses. Data yang diakses juga tidak selalu ada pada komputer yang mengeksekusi.
  • MDS (Monitoring and Discovery Service). Komponen ini dibuat untuk memonitoring proses komputasi yang sedang dijalankan agar dapat mendeteksi masalah yang timbul dengan segera. Sedangkan fungsi disovery dibuat agar pengguna mampu mengetahui keberadaan sumber daya komputasi beserta karakteristiknya.
  • GSI (Grid Security Infrastructure). Komponen ini dibuat untuk mengamankan sistem komputasi grid secara keseluruhan. Komponen ini membedakan teknologi GT4 dengan teknologi-teknologi sebelumnya. Dengan menerapkan mekanisme keamanan yang tergabung dengan komponen-komponen komputasi grid lainnya, sistem ini dapat diakses secara luas tanpa sedikitpun mengurangi tingkat keamanannya. Sistem keamanan ini dibangun dengan segala komponen yang telah diuji, mencakup proteksi data, autentikasi, delegasi dan autorisasi.



CARA KERJA KOMPUTASI GRID

Beberapa perusahaan dan organisasi bekerja sama untuk menciptakan seperangkat aturan standar yang disebut protokol agar lebih mudah menyiapkan lingkungan komputasi grid. Ini mungkin untuk menciptakan sistem komputasi grid. Tapi yang hilang adalah pendekatan yang disepakati. Itu berarti dua sistem komputasi grid yang berbeda mungkin tidak kompatibel satu sama lain, karena masing-masing bekerja dengan seperangkat protokol dan alat yang unik.

Secara umum, sistem komputasi grid membutuhkan:

  • Setidaknya satu komputer, biasanya server, yang menangani semua tugas administratif untuk sistem. Banyak orang menyebut jenis komputer ini sebagai node kontrol. Aplikasi lain dan server Web (baik fisik maupun virtual) memberikan layanan khusus ke sistem.
  • Jaringan komputer yang menjalankan perangkat lunak jaringan komputasi grid khusus. Komputer ini bertindak baik sebagai titik antarmuka bagi pengguna dan sebagai sumber daya yang akan dimasuki sistem untuk berbagai aplikasi. Sistem komputasi grid dapat mencakup beberapa komputer yang sama yang berjalan pada sistem operasi yang sama (disebut sistem homogen) atau campur aduk dari berbagai komputer yang berjalan pada setiap sistem operasi yang bisa dibayangkan (sistem yang heterogen). Jaringan bisa berupa apapun dari sistem yang terpasang dimana setiap komputer terhubung ke sistem dengan kabel fisik ke sistem terbuka dimana komputer terhubung satu sama lain melalui Internet.
  • Kumpulan perangkat lunak komputer yang disebut middleware. Tujuan middleware adalah memungkinkan komputer yang berbeda menjalankan proses atau aplikasi di seluruh jaringan mesin. Middleware adalah pekerja keras dari sistem komputasi grid. Tanpa itu, komunikasi antar sistem tidak mungkin dilakukan. Seperti perangkat lunak pada umumnya, tidak ada format tunggal untuk middleware.
Jika middleware adalah pekerja keras dari sistem komputasi grid, node kontrol adalah petugas operator. Simpul kontrol harus memprioritaskan dan menjadwalkan tugas di seluruh jaringan. Ini adalah tugas node kontrol untuk menentukan sumber daya apa yang masing-masing tugas dapat akses. Simpul kontrol juga harus memonitor sistem untuk memastikan tidak kelebihan beban. Penting juga agar setiap pengguna yang terhubung ke jaringan tidak mengalami penurunan kinerja komputernya. Sistem komputasi grid harus memanfaatkan sumber daya komputer yang tidak terpakai tanpa mempengaruhi hal-hal lain.

Menurut tulisan singkat oleh Ian Foster ada check-list yang dapat digunakan untuk mengidentifikasi bahwa suatu sistem melakukan komputasi grid yaitu :


  • Sistem tersebut melakukan koordinasi terhadap sumberdaya komputasi yang tidak berada dibawah suatu kendali terpusat. Seandainya sumber daya yang digunakan berada dalam satu cakupan domain administratif, maka komputasi tersebut belum dapat dikatakan komputasi grid.
  • Sistem tersebut menggunakan standard dan protokol yang bersifat terbuka (tidak terpaut pada suatu implementasi atau produk tertentu). Komputasi grid disusun dari kesepakatan-kesepakatan terhadap masalah yang fundamental, dibutuhkan untuk mewujudkan komputasi bersama dalam skala besar. Kesepakatan dan standar yang dibutuhkan adalah dalam bidang autentikasi, otorisasi, pencarian sumberdaya, dan akses terhadap sumber daya.
  • Sistem tersebut berusaha untuk mencapai kualitas layanan yang canggih, (nontrivial quality of service) yang jauh diatas kualitas layanan komponen individu dari komputasi grid tersebut.

Kemudian hal yang tidak boleh dilupakan adalah mengenai keberadaan dari elemen-elemen dari grid computing, elemen ini tidak bisa dilepaskan dari grid computing. Elemen grid computing adalah berikut :


  1. Brainware
  2. Hardware
  3. Software


Dibalik kemudahan setiap komputasi yang sudah ada selama ini, maka ada kekurangan/kelemahan yang dimilikinya. Dibawah ini saya akan memberikan info mengenai kelebihan dan kekurangan apa saja yang dimiliki oleh grid computing ini :

  • Hardware dalam komputasi grid mencakup perangkat penyimpanan, prosesor, memori, jaringan, dan software yang di desain untuk mengelola hardware ini, misalnya database, manajemen penyimpan, manajemen sistem, server aplikasi, dan sistem operasi. Hardware pada grid komputing di atur secara lokal, dan hardware yang berbeda memiliki kebijakan dan cara kerja yang berbeda. Hardware dan user grid komputing sering bersifat dinamis tergantung penerapan grid tersebut.
  • Software merupakan suatu perangkat yang menghubungkan semua middleware-nya. Middleware itu sendiri adalah bagian dari software, yaitu lapisan sofware yang terletak antara sistem operasi dan aplikasi yang berfungsi sebagai penghubung komunikasi antar-objek dari sistem yang berbeda. Unsur-unsur dasar suatu middleware adalah keamanan (security), pengaturan sumber daya (resource management), pengaturan data (data management), dan layanan informasi (information services). Contoh beberapa middleware adalah Globus Toolkit, Gridbus, Microsoft’s COM/DCOM, Unicore, dan masih banyak contoh-contoh middleware lainnya.
  • Brainware dalam komputasi grid hanya meliputi pemelihara dan pemakai grid. Dahulu grid computing cenderung hanya di pakai oleh para ilmuan untuk kepentingan ilmiah. Pada saat itu memang ekspose terbesar lebih banyak pada proyek-proyek sains, seperti riset genetika, fisika dan yang paling terkenal adalah proyek SETI ( Search for Extra Terrestrial Intelligence ) atau riset pencari kehidupan di luar bumi. Hal ini memunculkan persepsi bahwa teknologi komputasi grid ini sulit di terima di kalangan non-ilmuan, terutama di kalangan bisnis. Namun, sekarang penerapan komputasi grid telah merambah penggunaanya bukan hanya pada proyek sains saja. Bahkan baru-baru ini, teknologi grid computing telah di kenalkan pada dunia enterpreneur dan mendapat banyak respon positif. Orang yang memelihara dan menggunakan teknologi grid computing ini, berdasarkan penelitian penggunaannya akan meluas pada:


IMPLEMENTASI KOMPUTASI GRID


Ada beberapa sistem komputasi grid, Proyek organisasi akademis dan penelitian menyumbang banyak sistem yang saat ini beroperasi. Sistem ini memanfaatkan tenaga pemrosesan komputer yang tidak terpakai. Istilah yang paling akurat untuk jaringan semacam itu adalah sistem komputasi bersama.

Proyek Search for Extraterrestrial Intelligence (SETI) adalah salah satu sistem komputasi grid paling awal untuk mendapatkan perhatian populer. Misi dari proyek SETI adalah menganalisis data yang dikumpulkan oleh teleskop radio untuk mencari bukti adanya komunikasi alien yang cerdas. Ada terlalu banyak informasi untuk satu komputer untuk dianalisis secara efektif. Proyek SETI membuat sebuah program yang disebut SETI @ home, yang menghubungkan komputer dengan jaringan menjadi superkomputer virtual.

Program serupa adalah proyek Folding @ home yang dikelola oleh Grup Pande, sebuah institusi nirlaba di departemen kimia Universitas Stanford. Kelompok Pande sedang mempelajari protein. Penelitian ini mencakup cara protein mengambil bentuk tertentu, yang disebut lipatan, dan bagaimana yang berhubungan dengan protein apa yang dilakukan. Para ilmuwan percaya bahwa protein "misfolding" bisa menjadi penyebab penyakit seperti Parkinson atau Alzheimer. Ada kemungkinan bahwa dengan mempelajari protein, Kelompok Pande mungkin menemukan cara baru untuk mengobati atau bahkan menyembuhkan penyakit ini.

Ada puluhan proyek komputasi grid aktif serupa. Banyak dari proyek-proyek ini tidak terus-menerus, yang berarti bahwa setelah tujuan proyek masing-masing terpenuhi, sistem akan bubar. Dalam beberapa kasus, sebuah proyek baru yang terkait bisa menggantikan proyek yang telah selesai.

Sementara masing-masing proyek memiliki fitur unik tersendiri, secara umum proses partisipasi sama. Pengguna yang tertarik untuk berpartisipasi mendownload aplikasi dari situs Web proyek masing-masing. Setelah instalasi, aplikasi menghubungi masing-masing node kontrol proyek. Simpul kontrol mengirimkan sejumlah data ke komputer pengguna untuk dianalisis. Perangkat lunak ini menganalisis data, didukung oleh sumber daya CPU yang belum dimanfaatkan. Perangkat lunak proyek memiliki prioritas sumber daya yang sangat rendah - jika pengguna perlu mengaktifkan program yang memerlukan banyak daya pemrosesan, perangkat lunak proyek akan dimatikan sementara. Setelah penggunaan CPU kembali normal, perangkat lunak mulai menganalisis data lagi.

LiquidSky pun juga bisa dibilang Grid Computing pada sisi server dikarenakan LiquidSky mempunyai banyak server dan berbagai manajemen untuk dapat memelihara sistem agar dapat berjalan sesuai dengan kemauan.

Di Indonesia sendiri sudah menggunakan sistem Grid dan diberi nama InGrid (Inherent Grid). Sistem komputasi grid mulai beroperasi pada bulam Maret 2007 dan terus dikembangkan sampai saat ini. InGrid ini menghubungkan beberapa perguruan tinggi negeri dan swasta yang tersebar di seluruh Indonesia dan beberapa instansi pemerintahan seperti Badan Meteorologi dan Geofisika.

INHERENT-GRID (inGRID) adalah infrastruktur komputasi grid yang akan dibangun di atas INHERENT. inGRID akan menyediakan sumber daya komputasi berkapasitas besar (baik dari segi komputasi maupun data) yang dapat diakses oleh para peneliti yang berada di seluruh perguruan tinggi yang terhubung di INHERENT. Sumber daya komputasi yang besar ini memungkinkan para peneliti tersebut melakukan berbagai penelitian di bidang e-Science, yang mencakup berbagai disiplin ilmu seperti Biologi (bio-teknologi), Elektro-teknik (nano-teknologi), Fisika (pemodelan atom), Ilmu Lingkungan (pengelolaan bencana alam), dan Ilmu Komputer (komputasi paralel).

“Telah tersedianya inGRID versi 1.0 -- yang telah dibangun oleh sekelompok peneliti Fasilkom UI - yang merupakan awal pengembangan infrastruktur komputasi grid di atas INHERENT. inGRID versi 1.0 ini menyediakan sumber daya komputasi setara dengan 32 buah komputer PC (Pentium IV, 2 GHz) dan kapasitas penyimpanan data minimal 1 TeraBytes. Sumber daya komputasi grid ini dapat digunakan oleh para peneliti e-Science di perguruan tinggi-perguruan tinggi yang terhubung dalam INHERENT untuk menjalankan program-program komputer yang mereka miliki baik dalam bentuk program paralel (dengan basis MPI atau PVM) maupun program standalone yang membutuhkan sumber daya komputasi besar. Selain mendukung para peneliti e-Science , pengembangan inGRID versi 1.0 ini akan digunakan untuk mempelajari baik aspek-aspek teknis maupun non-teknis (manajemen sumber daya komputasi tersebar) yang akan sangat dibutuhkan dalam mengembangkan inGRID lebih lanjut. Termasuk di dalamnya, aspek-aspek penerapan infrastruktur komputasi grid di dunia industri.” [InGrid]. Status terakhir pada akhir agustus 2008 lalu, InGrid telah berhasil menggabungkankan Grid UGM, sehingga pengguna dapat memakai sumber dayad UI dan UGM.


REFERENSI

http://computer.howstuffworks.com/grid-computing.htm
http://www.lsi.usp.br/~grid/artigos/ibm/gr-overview.pdf
https://kb.iu.edu/d/angf
http://www.fidis.net/resources/fidis-deliverables/hightechid/d122-study-on-emerging-ami-technologies/doc/12/
https://www.slideshare.net/keshabnath/grid-computing-21427802
http://inherent.ui.ac.id/ingrid/
http://staff.ui.ac.id/system/files/users/heru/publication/pidatogb-hs-nocv1.pdf

Senin, 27 Februari 2017

Tugas Pengantar Komputasi Modern (27/02/2017) (Nama : Davin Dirgantara | NPM : 52413056 | Kelas : 4IA17)

Nama : Davin Dirgantara | NPM : 52413056 | Kelas : 4IA17

Komputasi Modern


Tahun 1613 gagasan “komputer” muncul, dan masih mengacu pada perhitungan aritmatika dan “komputer” digunakan dalam pengertian itu sampai pertengahan abad ke-20. Dari akhir abad ke-19 dan seterusnya. Perkembangan komputer akhirnya membuat komputer menjadi sebuah mesin yang melakukan komputasi.
Sejarah komputer modern dimulai dengan dua teknologi yang terpisah, perhitungan otomatis dan dapat di program ulang. tapi tidak ada satu perangkat pun yang dapat dikatakan sebagai komputer, karena sebagian penerapan yang tidak konsisten istilah tersebut. Contoh-contoh awal perangkat penghitung mekanik termasuk sempoa (yang berasal dari sekitar 150-100 SM).  Seorang pahlawan dari Alexandria (sekitar 10-70 AD) membangun sebuah teater mekanis yang diadakan bermain berlangsung 10 menit dan dioperasikan oleh sebuah sistem yang kompleks dengan tali dan drum yang dipakai sebagai sarana untuk memutuskan bagian dari mekanisme.

Salah satu tokoh yang sangat mempengaruhi perkembangan komputasi modern adalah John von Neumann (1903-1957), Beliau adalah ilmuwan yang meletakkan dasar-dasar komputer modern.Von Neumann telah menjadi ilmuwan abad 21. Von Neumann memberikan berbagai sumbangsih dalam bidang matematika, teori quantum, game theory, fisika nuklir, dan ilmu komputer  yang disalurkan melalui karya-karyanya . Beliau juga merupakan salah satu ilmuwan yang terkait dalam pembuatan bom atom di Los Alamos pada Perang Dunia II lalu.


Komputasi Modern /Kom·pu·ta·si/ /mo·dern/


Suatu kesatuan banyak komponen atau elemen yang dihubungkan bersama untuk memudahkan aliran informasi, materi atau energi untuk mencapai suatu tujuan  dengan berkonsep menerima instruksi-instruksi dari pengguna dan memproses ke sebuah memory komputer untuk disimpan dan diolah dilain waktu atau bisa langsung. Materi pada saat ini melakukan komputasi menggunakan komputer maka dapat dikatakan komputer merupakan sebuah komputasi modern.
Konsep ini pertama kali dicetuskan oleh John Von Neumann (1903-1957).
Yang terkait dengan komputasi modern adalah :
1.Akurasi : yang berhubungan dengan bit dan floating point
2.Kecepatan : dalam satuan hertz (processor tunggal, pipeline, parallel processing)
3.Problem volume besar : down sizing, parallel
4.Modelling : NNGA
5.Kompleksitas : menggunakan teori big O

Cloud Computing

Cloud computing adalah model untuk memungkinkan akses di mana-mana (selama terkoneksi kesuatu jaringan seperti internet), nyaman, akses jaringan on-demand untuk bersama dalam suatu sumber daya komputasi yang dikonfigurasi (misalnya, jaringan, server, penyimpanan, aplikasi, dan layanan) dan dapat dengan cepat ditetapkan dan dirilis dengan upaya manajemen yang minimal dengan interaksi penyedia layanan.

model ini terdiri dari lima karakteristik penting, tiga model layanan, dan empat penyebaran model.

Karakteristik penting:


  • On-demand self-service (servis sendiri kapan saja). Seorang konsumen bisa secara sepihak  mengatur kemampuan komputasi, seperti spesifikasi server dan jaringan yang diperlukan secara otomatis tanpa memerlukan interaksi manusia masing-masing penyedia layanan.
  • Broad or Ubiquitous network access (akses jaringan yang luas). Kemampuan yang tersedia melalui jaringan dan diakses melalui mekanisme yang digunakan oleh platform klien yang heterogen (misalnya, ponsel, tablet, laptop, dan workstation).
  • Resource pooling (sumber daya pooling). sumber penyedia komputasi dikumpulkan untuk melayani beberapa konsumen menggunakan model multi-tenant, dengan sumber daya fisik dan virtual yang berbeda secara dinamis ditugaskan dan dipindahkan sesuai dengan permintaan konsumen. Kebebasan pelanggan umumnya tidak memiliki kontrol atau pengetahuan atas tepat lokasi sumber daya yang disediakan tetapi mungkin dapat menentukan lokasi pada tingkat yang lebih tinggi dari abstraksi (misalnya, negara, negara bagian, atau datacenter). Contoh sumber daya termasuk penyimpanan, pemrosesan, memori, dan bandwidth jaringan.
  • Rapid elasticity (elastisitas yang cepat). Kemampuan untuk "elastis" ditetapkan dan dirilis, dalam beberapa kasus otomatis, cepat sepadan dengan permintaan. untuk konsumen, kemampuan tersedia untuk penyediaan menjadi tidak terbatas dan bisa dialokasikan dalam setiap saat.
  • Measured Service (layanan diukur). sistem cloud secara otomatis mengontrol dan mengoptimalkan penggunaan sumber daya dengan memanfaatkan capability metering di beberapa tingkat abstraksi yang sesuai dengan jenis layanan (misalnya, penyimpanan, pengolahan, bandwidth, dan account pengguna aktif). penggunaan sumber daya dapat dipantau, dikendalikan, dan dilaporkan, memberikan transparansi bagi penyedia dan konsumen dari layanan dimanfaatkan.


Layanan Model:


  • Software sebagai Service (SaaS). Kemampuan yang diberikan kepada konsumen adalah dengan menggunakan penyedia aplikasi yang berjalan pada infrastruktur tersebut. Aplikasi dapat diakses dari berbagai perangkat klien baik melalui antarmuka klien, seperti web browser, atau antarmuka program. konsumen tidak mengelola atau mengendalikan infrastruktur yang mendasari termasuk jaringan, server, sistem operasi, penyimpanan, atau bahkan kemampuan aplikasi individual, dengan kemungkinan pengecualian dari spesifikasi terbatas pada pengaturan konfigurasi aplikasi.

  • Platform sebagai Service (PaaS). Kemampuan yang diberikan kepada konsumen adalah untuk menyebarkan ke infrastruktur cloud konsumen yang dibuat atau aplikasi yang dibuat, perpustakaan, layanan, dan alat-alat yang didukung oleh provider. Konsumen tidak mengelola atau mengendalikan infrastruktur yang mendasari termasuk jaringan, server, sistem operasi, atau penyimpanan, namun memiliki kontrol atas aplikasi dikerahkan dan mungkin pengaturan konfigurasi untuk lingkungan aplikasi-hosting.

  • Infrastruktur sebagai Layanan (IaaS). Kemampuan yang diberikan kepada konsumen adalah untuk penyediaan pengolahan, penyimpanan, jaringan, dan sumber daya lainnya yang mendasar komputasi di mana konsumen dapat menyebarkan dan menjalankan perangkat lunak sewenang-wenang, yang dapat mencakup operasi sistem dan aplikasi. konsumen tidak mengelola atau mengendalikan yang mendasari infrastruktur, tetapi memiliki kontrol atas sistem operasi, penyimpanan, dan aplikasi dikerahkan; dan kontrol mungkin terbatas komponen jaringan pilih.


Model Deployment:


  • Private Cloud. Infrastruktur ditetapkan untuk penggunaan eksklusif oleh satu organisasi yang terdiri dari beberapa konsumen (misalnya, unit bisnis). Ini mungkin dimiliki, dikelola, dan dioperasikan oleh organisasi, pihak ketiga, atau beberapa kombinasi dari mereka.

  • Community Cloud (Cloud Masyarakat). Infrastruktur ditetapkan untuk penggunaan eksklusif oleh tertentu dari masyarakat konsumen dalam organisasi (misalnya, misi, persyaratan keamanan, kebijakan, dan pertimbangan kepatuhan). Ini mungkin dimiliki, dikelola, dan dioperasikan oleh satu atau lebih organisasi di masyarakat dan beberapa kombinasi dari mereka.

  • Public Cloud. Infrastruktur awan ditetapkan untuk digunakan terbuka oleh masyarakat umum. Itu mungkin dimiliki, dikelola, dan dioperasikan oleh bisnis, akademik, atau organisasi pemerintah, atau beberapa kombinasi dari mereka. Ini ada di tempat publik.

  • Hybrid Cloud. Infrastruktur cloud yang komposisi dari dua atau lebih awan yang berbeda infrastruktur (swasta, komunitas, atau masyarakat) yang entitas unik, namun terikat bersama-sama dengan teknologi standar atau kepemilikan yang memungkinkan data dan aplikasi portabilitas (misalnya, cloud bursting untuk load balancing antara awan).

Perangkat lunak yang menerapkan Cloud Computing

LiquidSky adalah sebuah layanan cloud publik dan PCaaS untuk dapat mempunyai sebuah komputer sendiri di cloud server mereka, seperti menyewa komputer tetapi hanya bisa diakses dengan aplikasi liquidsky tersebut. bisa diakses di android juga. Tetapi untuk saat 27/02/2017 karena masih beta hanya beberapa orang saja yang bisa mengakesnya. contoh pemakaiannya 
  1. Setelah terkoneksi internet, Program dibuka (hanya beta user saja programnya dan harus memiliki akun liquidsky)
  2. Setelah selesai pengecekan oleh program maka login terlebih dahulu
  3. setelah itu karena ini hanya demo, maka hanya bisa 1 jam, create sky computer dan coba
  4. pilih salah satu sama saja, dan uji setelah selesai terbuat
  5. berikut tampilan komputer yang di remote
Diberikan kebebasan untuk menginstall apa saja dalam komputer tersebut selama batas penyimpanan masih ada. berikut demonya beberapa game

Kamis, 03 November 2016

Softskill 4IA17 Review Jurnal pengantar bisnis informatika dalam bidang TI






Review Jurnal

Sebuah sistem pasti ada obsolete-nya, sudah kuno dan harus diganti mengikuti perkembangan jaman, jadi pada kasus ini dibutuhkan sebuah pembaruan dari DOS yaitu CCOS menjadi yang lebih efektif, user friendly dan aman. 



Data mart adalah suatu bagian pada data mart yang mendukung pembuatan laporan dan analisis data pada suatu uni, bagian operasi pada suatu perushaaan. Data mart berisi informasi yang relevan bagi user yang ingin mengambil keputusan, sebuah perusahaan yang telah menginvestasikan baik uang dan waktunya dalam sebuah bisnis operasional yang telah mempunyai dan menyimpan sebuah data dari pelanggan, penjualan dan inventori. dengan langkah-langkahnya data extraction, transformation dan loading. 

Bagian dari data warehouse yang mendukung kebutuhan pada tingkat departemen atau fungsi bisnis tertentu dalam perusahaan. Karakteristik yang membedakan data mart dan data warehouse adalah sebagai berikut (Connolly, Begg, Strachan 1999). 

> Data mart memfokuskan hanya pada kebutuhan-kebutuhan pemakai yang terkait dalam sebuah departemen atau fungsi bisnis. 
> Data mart biasanya tidak mengandung data operasional yang rinci seperti pada data warehouse. 
> Data mart hanya mengandung sedikit informasi dibandingkan dengan data warehouse. Data mart lebih mudah dipahami dan dinavigasi.

Contoh Software Data Mart 
 SmartMart (IBM) 
 Visual Warehouse (IBM) 
 PowerMart (Informatica)




Tujuan dari Membangun data mart Di PT.XYZ

Bandung ini adalah untuk :
1. Memudahkan pihak KRO ( Koordinator regional Officer) dan supervisor dalam mendapatkan informasi secara detail mengenai penjualan kartu kredit XYZ di setiap cabang yang ada di Jawa
Barat.
2. Dapat memudahkan KRO ( Koordinator regional Officer) atau Pimpinan Sentra Bisnis Kartu
Bandung dan supervisor untuk melakukan analisis mengenai penjualan kartu kredit XYZ di
Jawa Barat.
3. Membantu Supervisor dalam menghasilkan laporan yang dapat digunakan untuk mendukung
dalam mengambil keputusan mengenai penjualan kartu kredit XYZ di Jawa Barat. 


Batasan masalah bertujuan untuk memudahkan perancangan dan menghindari meluasnya permasalahan, maka penulis membuat batasan yaitu:  

1. Membangun data mart penjualan kartu kredit di PT. XYZ di Jawa Barat.
2. Data yang di analisis meliputi data
Incoming (data aplikasi kartu kredit yang di terima), data Approval ( data aplikasi kartu kredit yang di setujui ), data Decline (data aplikasi yang di tolak).
3. Sumber data berasal dari data
Excel dengan format 97-2003 Workbook (*.xls) dan jumlah file yang bisa di import maksimal 3 file, setiap 1 file kurang lebih terdapat 5000 record .4. Pemodelan data martyang digunakan adalah skema star.
5. Pemodelan analisis pembangunan perangkat lunak menggunakan metode analisis berorientasi
Objek Oriented (OO).
6.
DBMS yang di gunakan My SQL

Garis besar pembuatannya

Langkah 1 : Pemilihan prosesData mart yang pertama kali dibangun haruslah data mart yang dapat dikirim tepat waktu dan
dapat menjawab semua pertanyaan bisnis yang penting

Langkah 2 : Pemilihan sumber
Untuk memutuskan secara pasti apa yang diwakili atau direpresentasikan oleh sebuah tabel fakta.

Langkah 3 : Mengidentifikasi dimensi
1) Set dimensi yang dibangun dengan baik,
2) Dimensi ini penting untuk menggambarkan fakta-fakta yang terdapat pada tabel fakta
3) Misal, setiap data
Custumer pada tabel dimensi Aplikasi dilengkapi,dengan custumer_id, darurat_id, pekerjaan_id, keuangan_id, nama_kartu, nama_ktp, no_ktp, kewarganegaraan, tgl_lahir, umur.
Langkah 4 : Pemilihan fakta
Sumber dari sebuah tabel fakta menentukan fakta mana yang bisa digunakan dalam data mart.

Langkah 5 : Menyimpan pre-kalkulasi di tabel fakta.
Hal ini terjadi apabila fakta kehilangan statement
Langkah 6 : Melengkapi tabel dimensi
Langkah 7 : Pemilihan durasi databaseMisalnya pada suatu perusahaan asuransi, mengharuskan data disimpan selama 10 tahun atau lebih

Langkah 8 : Menelusuri perubahan
dimensi yang perlahan
a) Ada tiga tipe perubahan
dimensi yang perlahan, yaitu :
1) Tipe 1. Atribut
dimensi yang telah berubah tertulis ulang
2) Tipe 2. Atribut
dimensi yang telah berubah menimbulkan sebuah dimensi baru
3) Tipe 3. Atribut
dimensi yang telah berubah menimbulkan alternatif sehingga nilai atribut lama dan yang baru dapat diakses secara bersama pada dimensi yang sama.

Langkah 9 : Menentukan prioritas dan mode
query. 

setelah data mart berhasil, mungkin bisa dikembangkan menajdi data warehouse yang notabenenya mampu menampung data yang sangat besar.


ETL adalah extract, transform, load adalah proses dalam data warehousing bertanggung jawab untuk menarik data dari sistem sumber dan menempatkannya ke dalam data warehouse. ETL melibatkan tugas-tugas berikut:

- Penggalian data dari sistem sumber (SAP, ERP, sistem oprational lainnya), data dari sistem sumber yang berbeda diubah menjadi satu data gabungan. 

- Mengubah data mungkin melibatkan tugas-tugas berikut:
  menerapkan aturan bisnis (disebut derivasi, misalnya, menghitung langkah-langkah baru dan dimensi),
  pembersihan (misalnya, pemetaan NULL dengan 0 atau "Laki-laki" untuk "M" dan "Wanita" ke "F" dll),
  penyaringan (misalnya, memilih hanya kolom tertentu untuk dimuat),
  membelah kolom menjadi beberapa kolom dan sebaliknya,
  bergabung bersama data dari berbagai sumber (misalnya, lookup, menggabungkan),
  transposing baris dan kolom,
  menerapkan segala jenis sederhana atau kompleks validasi data (misalnya, jika 3 kolom pertama berturut-turut kosong kemudian menolak baris dari pengolahan)

- Memuat data ke dalam gudang data atau data repositori aplikasi pelaporan lainnya

Sumber dari 
http://eprints.dinus.ac.id/14329/1/[Materi]_Data_Warehouse,_Data_Mart,_OLAP,_dan_Data_Mining.pdf  
http://datawarehouse4u.info/ETL-process.html
  

Kamis, 06 Oktober 2016

Tugas Softskill 1 (4IA17) Pengantar Bisnis Informatika # Bisnis dalam bidang Teknik Informatika

Bisnis dalam bidang Teknik Informatika


Salah satu kancah di dunia ini yang bisa berkembang dengan bidang bidang lain yaitu bisnis dan pada kesempatan ini akan membahas Bisnis pada jurusan saya yaitu Teknik Informatika. Di Gunadarma terlihat bahwa ingin mahasiswanya setelah mempelajari di universitas tersebut agar bisa di bidang yang lebih ke bekerja, bukan membuat bisnis. Jadi kemungkinannya mungkin kecil, tetapi belum tentu tidak ada.

Bagaimana kalian mencari peluang informasi tentang bisnis dalam bidang Teknik Informatika ?

Saya merencanakan akan pasti bekerja dulu sebelum membuat pekerjaan dan melihat situasi untuk selalu mengikuti tren yang ada, karena jika bisnis tidak mengikuti tren apalagi TI merupakan bidang yang sangat dinamis dan gampang berkembang. Salah satu bidang yang ingin saya pelajari diluar yaitu adalah Forex, Bitcoin, Indeks Saham tetapi secara otomatis atau "robot". Jadi saya hanya tinggal menunggu dan monitoring sedangkan "duit saya mencari duit lainnya".



Mencari yang sedang ngetren, itulah bisnis dalam TI agar bisa terjual sesuatu tersebut, salah satunya dengan membuat start up dan berani gagal sebagai biaya pembelajaran dalam berbisnis bidang TI. Resiko pasti selalu ada dan harus dilalui karena merupakan suatu proses yang basic dalam berbisnis, tetapi kalau bisa tanpa resiko kenapa tidak, saya lebih senang mencari bisnis dengan resiko seminimal mungkin karena saya baru mau memulai. saya belum mencari tetapi berikut hasil pencarian yang hanya sedang ngetren

1. Bisnis Online in-game items
Dalam hal ini saya berpikir yang dijual adalah item in-game dalam banyak game, jadi seperti tok*pedai tetapi berisi in-game items, saya hanya tinggal mengikuti tutorial yang banyak dan mengganti item dengan in-game items.

2. Jasa kursus membantu mahasiswa menyelesaikan tugas kuliah
Seperti kursus tetapi ini membantu dengan sangat spesifik dengan orang-orang yang dekat saja.


Bagaimana tahapan pengembangan usaha ?

Tentang tahapan jangan sampai berakhir seperti ini

Gambar tersebut menandakan bahwa adanya miscommunication antar manusia, kebanyakan hampir proyek mengalami hal tersebut
Menurut saya tahapan dari kita belajar terlebih dahulu, yaitu bekerja dengan orang lain dan pandai mengorganisasikan apapun agar teratur. Setelah itu membuat bisnis kecil yang masih mengajak orang lain dan memikir jauh resiko yang harus ditangani dan berani menjalankannya secara konsisten. jangan setengah setengah sampai mendapat branding kira kira 2 tahun.

Sebagai lulusan TI, saya berpedoman SDLC (System Development Life Cycle) yang sedikit saya modifikasi seperti :


  1. Planning
    Awal dari segala project, pondasi yang kuat akan membuat project lancar. Rencana yang matang dan urutan waktu pengerjaan merupakan salah satu kunci penting. Fase ini sangat penting karena akan mempengaruhi keseluruhan proyek.
  2. Analysis
    Pada fase ini kita akan menganalisa sistem yang saat ini berjalan. Dilakukan dengan mengamati proses yang berjalan dan juga melihat skill tiap orang dalam team.
  3. Design
    Pada tahap design ini kita membuat rancangan aplikasi seperti flow dan struktur database. Tahap ini menentukan perancangan jika kurang baik akan membuat team tidak efisien melakukan project.
  4. Development
    Tahap untuk mencoba hal yang sudah direncanakan, kegagalan memang wajar terjadi asal jangan gagal terus terusan.
  5. Testing
    Pada tahap ini ada anggota team yang melakukan testing mengenai aplikasi yang telah dibuat.
  6. Implementation
    Pada tahap implementation ini ada team yang melakukan training dan mendampingi client menjalankan aplikasi yang telah dibuat
  7. Maintenance
    Pada tahap ini perlu ini kita menjaga agar system bisa berjalan dengan baik. Pada tahap ini proses backup recovery harus dirancang dan dilakukan dengan baik.


Bagaimanakah perkembangan bisnis teknologi di dunia

BIG DATA DAN ANALISIS

Analisis Big Data (Big Data Analytics) dan informasi lainnya yang terkait dengan big data dan analisis.

Mengapa analisis big data ini menjadi sesuatu yang perlu diketahui oleh rekans atau perusahaan rekans?

Hal ini mengingat begitu besarnya potensi manfaat yang didapatkan jika rekans atau perusahaan rekans dapat menerapkan analisis terhadap big data. Bagi rekans yang ingin tahu manfaat penting dari penggunaan analisis big data serta informasi berharga lainnya, dapat melanjutkan untuk membaca artikel ini sampai selesai, karena akan saya tunjukkan pada sub bab di bawah.

Sebagai permulaan, untuk kemudahan pemahaman dasar tentang apa itu analisis big data, saya akan memulai dengan membahas tentang  definisi analisis big data.

Pengertian Analisis Big Data
Untuk mengerti definisi analisis big data, kita tidak bisa lepas dari memahami apa itu big data dan apa itu analisis data. Istilah big data telah saya bahas khusus pada artikel berikut ini, namun saya akan coba berikan overview singkat tentang big data disini.

Big Data merupakan istilah untuk menggambarkan data set yang besar baik Structured, Semi-Structured maupun Unstructured data. Definisi big data bisa juga dijelaskan dalam 3V :

1.Volume berarti data set yang disimpan dalam jumlah yang besar
2.Velocity berarti ada kebutuhan mengakses data set besar tersebut dengan cepat
3.Variety berarti format data yang semakin bervariasi saat ini.




Berikut ini tiga jenis format data :
Structured data seperti relational database (RDBMS)
Semi-Structured data seperti XML, JSON
Unstructured data seperti Dokumen, metadata, video, gambar, audio, file teks, ebooks, email message, social media, jurnal dll.

Analisis data adalah proses meneliti data untuk mengetahui pola tersembunyi, korelasi yang belum diketahui, dan informasai berguna lainnya.

Dengan demikian pengertian Analisis Big Data adalah proses meneliti, mengolah data set besar (Big Data) untuk mengetahui pola tersembunyi, korelasi yang tidak diketahui, tren pasar, preferensi pelanggan dan informasi bisnis berguna lainnya.

Jika ingin lebih legkap bisa membaca dari link Wiki berikut ini : Big Data dan  Analisis, Perlu fokus lebih untuk dapat memahaminya ;)

Sejarah dan Evolusi Analisis Big Data
Konsep big data telah ada selama bertahun-tahun kebelakang, sekarang sebagian besar organisasi mengerti bahwa jika mereka mampu menampung semua data set besar yang mengalir ke dalam bisnis mereka, maka mereka dapat menerapkan analisis dan mendapatkan manfaat/informasi yang sangat berharga dari proses analisis tersebut.

Jika kita lihat ke belakang sebelum istilah Big Data dikenal, di tahun 1950-an bisnis pada saat itu sudah menggunakan analisis konvensional, yang didasarkan pada spreadsheet yang dikaji secara manual untuk mengungkap informasi berharga dan tren.

Lalu apa yang ditawarkan oleh analisis big data?

Benefit analisis big data di bandingkan dengan analisis konvensional adalah kecepatan dan efisiensi.

Sebelum aplikasi analisis big data muncul, bisnis akan mengumpulkan data ke dalam data warehouse dari database enterprise seperti Oracle, DB2, MS SQL Server, kemudian melakukan analisis untuk membantu pengambilan keputusan yang bermanfaat untuk masa depan bisnis perusahaan.

Kendala yang dihadapi muncul dengan pertumbuhan data yang sangat pesat dari berbagai jenis tipe data, sehingga dengan analisis konvensional ada limitasi untuk dapat menampung data set besar tersebut, waktu yang relatif lama diperlukan untuk menghasilkan informasi berharga dari analisis.

Kemunculan teknologi analisis big data memberikan solusi bagi bisnis untuk mendapatkan hasil analisis segera bahkan real-time sekalipun, sehingga memberikan bisnis keunggulan dalam berkompetisi.

Mengapa Analisis Big Data Penting?
Analisis Big Data membantu organisasi memanfaatkan data dan menggunakannya untuk mengidentifikasi peluang-peluang baru. Yang pada gilirannya menyebabkan bisnis bergerak lebih cerdas dan cepat karena didukung oleh operasional yang lebih efisien, yang pada akhirnya mendatangkan keuntungan yang lebih tinggi dan pelanggan lebih senang tentunya.

Dalam laporan yang ditulis oleh Tom Davenport (Direktur Riset IIA) setelah ia mewawancarai lebih dari 50 usaha untuk memahami bagaimana mereka menggunakan Big Data. Ia menemukan mereka mendapatkan manfaat penting sebagai berikut :

Penghematan biaya, Teknologi analisis Big data seperti hadoop dan analisis berbasis cloud membawa pengurangan biaya yang signifikan dalam hal untuk menyimpan data set dalam jumlah besar, selain mereka dapat mengidentifikasi cara-cara yang lebih efisien dalam melakukan bisnis.
Lebih cepat dan baik dalam pengambilan keputusan, dengan kecepatan teknologi big data seperti Hadoop dalam melakukan analisis dengan dikombinasikan dengan kemampuan untuk menganalisis berbagai macam sumber data baru, membuat bisnis mampu menganalisis informasi dengan cepat dan membuat keputusan berdasarkan hasil analisis tersebut.
Melahirkan produk dan pelayanan baru, dengan kemampuan mengukur kebutuhan dan kepuasan pelanggan mendatangkan keunggulan dari bisnis untuk menciptakan produk dan layanan baru yang sesuai dengan keinginan dan kebutuhan dari pelanggan.

Dengan 3 manfaat penting tersebut akan membantu bisnis mencapai tujuan/goal utama dalam meningkatkan keuntungan demi kemajuan bisnisnya.

Contoh Aplikasi Analisis Big Data
Berikut ini beberapa contoh Aplikasi yang ditawarkan oleh perusahaan/vendor dalam hal analisis terhadap big data :


Solusi big data yang ditawarkan pada umumnya menggunakan kerangka kerja (framework) Hadoop dan beberapa tools pendukung lainnya seperti HBase, Pig, Hive, Mapreduce, Oozie, Zookeeper, HCatalog, Avro, Sqoop (untuk ingin tahu istilah tersebut dapat dibaca di sini). Yang memungkinkan pengguna untuk menyimpan, mengelola dan menganalisa data dari berbagai sumber, di mana data tersebut dapat diakses oleh para analis bisnis, data scientist dan pengguna/praktisi TI.

Solusi big data tersebut adapula yang secara arsitektur dikombinasikan dengan teknologi yang sudah biasa untuk keperluan analisis dan visualisasi data,  seperti Data Warehouse dan Business Intellegent (BI). Dengan menggunakan tools visualisasi tersebut akan lebih menarik dan mudah dalam penyediaan reporting dari hasil analisis. 

Sepertinya nanti akan saya tulis artikel khusus pembahasan detil tentang software tersebut di atas. 
Contoh Studi Kasus Penggunaan Analisis Big Data
Dalam implementasinya, penerapan analisis big data cocok untuk berbagai bidang bisnis. Berikut ini saya coba listing-kan beberapa contoh studi kasus penggunaannya :

Lembaga keuangan dapat menggunakan analisis big data agar cepat mengidentifikasi potensi penipuan sebelum menjadi besar efeknya, sehingga meminimalkan resiko kerugian secara finansial.
Pemerintahan dapat manfaatkan analisis big data untuk meningkatkan keamanan negara dengan mampu mendeteksi, mencegah dan melawan serangan cyber.
Industri kesehatan dapat menggunakan analisis terhadap big data untuk meningkatkan layanan perawatan pasien dan menemukan cara yang lebih baik untuk mengelola sumber daya dan personil.
Perusahaan telekomunikasi dapat memanfaatkan analisis big data untuk mencegah churn pelanggan, dan juga merencanakan cara terbaik untuk mengoptimalkan jaringan nirkabel baik yang baru maupun yang sudah ada.
Marketing dapat menggunakan big data untuk melakukan analisis sentimen untuk mengetahui tingkat kepuasan pelanggan terhadap produk dan layanan yang dipasarkan.
Perusahaan asuransi dapat menggunakan analisis big data untuk mengkategorikan pengajuan asuransi yang dapat segera diproses, dan mana yang perlu divalidasi dengan dilakukan kunjungan oleh agen asuransi.
Perusahaan ritel dapat menggunakan informasi dari social media seperti Facebook, Twitter, Google+ yang disimpan dengan teknologi big data, yang selanjutnya digunakan untuk menganalisis bagaimana perilaku, persepsi pelanggan terhadap suatu produk atau brand dari perusahan.

Di atas hanya beberapa contoh penggunaan big data dalam rangka keperluan analisis. Saya rasa masih banyak contoh lainnya.

Sejalan dengan terus berkembangnya teknologi analisis big data, dan hampir semua bisnis sudah mulai berfikir bahwa mendapatkan manfaat dari implementasi analisis big data adalah suatu keharusan untuk menghadapi perubahan dan persaingan yang semakin pesat dan ketat saat ini.

Karena hal di atas, bisa kita prediksi kedepan penerapan big data menjadi sesuatu yang umum, sehingga akan semakin banyak lagi contoh studi kasus pemanfaatan big data selain yang saya sebutkan.

Bagaimana Melakukan Analisis Big Data?
Berikut ini beberapa jenis metode atau teknik dalam melakukan analisis big data :
Analisis Teks, merupakan proses menganalisis data teks (unstructured-data) seperti blog, email, forum, tweet, forum dan bentuk lainnya.
Data Mining, merupakan suatu proses menemukan hubungan yang berarti, pola, dan kecenderungan dari sekumpulan besar data dengan menggunakan teknik pengenalan pola seperti statisik dan matematika
Analisis Prediksi (Predictive Analytics)
Analisis Statistik
NLP (Natural Language Processing)
Demikian pembahasan tentang analisis big data, semoga dapat bermanfaat.




Dikutip dari sumber proweb.co.id dan pencarian google.