11 BAB 2 LANDASAN TEORI 2.1 Teori Umum Teori

advertisement
BAB 2
LANDASAN TEORI
2.1
Teori Umum
Teori umum merupakan suatu pernyataan apabila benar maka benar
secara universal. Dengan kata lain, teori umum adalah teori-teori pokok yang
digunakan sebagai landasan bagi teori-teori lainnya. Berikut ini adalah teori
umum yang digunakan:
2.1.1
Pengertian Data
Williams dan Sawyer (2011, p25) berpendapat bahwa data terdiri dari
fakta-fakta dan gambar mentahan yang akan diproses menjadi informasi.
Kemudian menurut Hoffer, Prescott, Mcfadden, (2008, p6) data
adalah representasi dari objek dan kejadian yang mempunyai arti dan penting
didalam cakupan user.
Sedangkan menurut Turban, Rainer, dan Potter (2006, p52)
mempunyai pendapat bahwa data mengarah pada penjelasan dasar atas segala
sesuatu, peristiwa, aktivitas, dan transaksi yang dicatat, diklasifikasi, serta
disimpan, tetapi tidak diatur untuk mengungkapkan makna tertentu.
Jadi data adalah representasi fakta-fakta dari objek dan kejadian atas
segala aktifitas dan transaksi yang dicatat, diklasifikasi, serta disimpan, tetapi
belum terstruktur dengan baik.
11
12
2.1.2 Pengertian Informasi
Menurut Hoffer, Prescott, Mcfadden, (2008, p6) informasi adalah data
yang telah diolah dengan sedemikian rupa untuk meningkatkan pengetahuan
pada seseorang yang menggunankan data tersebut.
Sedangkan menurut Kroenke and Auer (2011, p5) infomasi adalah
pengetahuan yang didapat dari data, lalu data ditampilkan dalam konteks
yang bermanfaat, dan data diproses dengan penjumlahan, pengurutan, ratarata, pengelompokan, perbandingan dan operasi lain yang serupa.
Jadi informasi adalah data yang telah diolah menjadi pengetahuan
yang bermanfaat dan dapat diproses dengan perhitungan, serta dapat
mendukung pengambilan keputusan.
2.1.3 Pengertian Database
Menurut Connolly dan Begg (2010, p65) berpendapat bahwa database
merupakan suatu kumpulan data yang berhubungan satu sama lain yang
digunakan secara bersama-sama dan kumpulan data ini dirancang untuk
memenuhi kebutuhan informasi suatu perusahaan.
Kemudian database menurut James A. O’Brien (2009, P Daftar
Kosakata 4) adalah sebuah koleksi logika yang terintergrasi dan berhubungan
dengan data. Sebuah database dapat dikonsolidasikan sebagai sekian banyak
catatan yang disimpan terlebih dahulu di file yang berbeda.
Sedangkan menurut Mcleod (2007,p 181),database adalah suatu
kumpulan data komputer yang terintegrasi, diorganisasikan, dan disimpan
dengan suatu cara yang memudahkan pengambilan kembali (retrival).
13
Jadi database adalah suatu kelompok atau kumpulan dari beberapa
data yang terintegrasi, diorganisasikan, dan digunakan secara bersama – sama
untuk memenuhi kebutuhan informasi yang dapat memudahkan dalam
pengambilan keputusan suatu perusahaan.
2.1.4
Pengertian DBMS (Database Management System)
Connolly dan Begg (2010, p61) menjelaskan bahwa DBMS adalah
sebuah sistem perangkat lunak yang memungkinkan pengguna untuk
mendefinisikan, membuat, memelihara, dan mengontrol akses ke database.
Pengertian DBMS menurut Kimball( 2002 , p398) adalah sebuah
aplikasi komputer yang bertujuaan untuk menyimpan, mengambil, dan
memodifikasi data menjadi sangat terstruktur. Data dalam DBMS biasanya
terbagi oleh aplikasi.
Jadi DBMS adalah sebuah aplikasi yang memungkinkan pengguna
untuk mengelola data menjadi sangat terstruktur.
2.1.5
Dashboard
Menurut Scheps (2008) dashboard merupakan keturunan lansung dari
EIS lama dari sistem dss, dengan meningkatkan fungsional dan penampilan.
-
Tactical Dasboard
Mengukur produktivitas jangka pendek dan efektifitas. Hasilnya sering
digunakan oleh contibutor individu.
-
Operational Dasboard
14
Mengukur efektifitas jangka pendek dsri fungsi bisnis yang spesifik pada
tim atau level unit bisnis. Level dashboard ini dapat secara potensial dapat
dikembangkan untuk seorang knowledge wolker atau local team manager.
-
Strategic dasboard
Dibangun untuk level pengaturan kebijakan dari organisasi. Dashboard
menampilkan metric yang mengambarkan strategi dan tujuan korporasi.
2.1.6
OLTP (Online Transaction Processing)
Menurut Conolly dan Begg (2010, p1196), OLTP merupakan suatu
sistem yang dirancang untuk menangani transaksi dengan jumlah yang tinggi,
dengan transaksi yang pada umumnya membuat perubahan kecil bagi data
operasional organisasi, yaitu data yang membutuhkan organisasi untuk
menangani operasinya sehari-hari.
2.1.7
OLAP (Online Analytical Processing)
OLAP dideskripsikan sebagai sebuah teknologi yang menggunakan
gambaran multidimensi sejumlah data untuk menyediakan akses yang lebih
cepat untuk keperluan analisis lanjutan (Connolly dan Begg, 2010, p1250).
Connolly dan Begg (2010, p1250-1251) juga menjelaskan bahwa
OLAP memungkinkan pengguna untuk mendapatkan pemahaman yang lebih
dalam dan pengetahuan mengenai berbagai aspek dari data perusahaan
mereka dengan cepat, konsisten, serta akses yang interaktif ke berbagai
kemungkinan pandangan data. OLAP memungkinkan pengguna untuk
melihat data perusahaan sedemikian rupa bahwa itu adalah model yang lebih
baik dari dimensi perusahaan yang sebenarnya.
15
2.1.8
Activity Diagram
Menurut Satzinger et al (2005:144), activity diagram adalah sebuah
bentuk workflow diagram yang menjelaskan tentang kegiatan pengguna dan
urutan alirannya.
2.1.9
Entity Relationship Diagram (ERD)
Whitten (2004, p295) mendefinisikan ERD sebagai model data yang
menggunakan beberapa notasi untuk menggambarkan data dalam hubungan
antar entitas dan relationship yang digambarkan oleh data tersebut.
Sedangkan Hoffer, Prescott, dan McFadden (2005, p93) berpendapat
bahwa, ERD adalah representasi grafis dari entity-relationship model. Entity
Relationship Model adalah representasi logical dari data untuk sebuah
organisasi atau untuk sebuah area bisnis.
2.1.10 Konsep Data Warehouse
2.1.10.1 Pengertian Data Warehouse
Menurut pendapat Kimball (2010, p397), data warehouse adalah
perpaduan dari sebuah data, baik dari staging area maupun presentation area,
dimana data operasional secara spesifik serta terstruktur untuk query dan
analisis performasi dan memudahkan penggunaan.
Menurut pendapat Mark I.Hwang (2008, p48), data warehouse
dikembangkan dengan menggali data dari berbagai sumber sistem,
membersihkan dan mengubah data, dan mengisinya dalam warehouse yang
kemudian tersedia untuk pembuat keputusan.
16
2.1.10.2 Data Warehouse Lifecycle Diagram
Data Warehouse Lifecycle Diagram ini merupakan teori dari
(Kimball, Ross, Thornthwaite, Mundy, & Becker, 2008) Dalam diagram
lifecycle ini terdiri dari beberapa tahap untuk membangun data warehouse.
Gambar 2.1 Kimball Lifecyle Diagram (Kimball, Ross, Thornthwaite,
Mundy, & Becker, 2008,p3-p14)
Pada Gambar 2.1 diatas dapat dijelaskan, terdapat beberapa tahap proses
dalam pembangunan data warehouse ( Kimball, Ross, Thornthwaite, Mundy,
& Becker, 2008, p3-p14) yaitu;
-
Project planning
Pada tahap ini project planning yang ingin dibuat sudah mulai
dipersiapkan dan di rancang terlebih dahulu. Proyek dalam kali ini di
rencanakan apa yang diperlukan dalam pembuatan proyek tersebut.
-
Business requirement definition
Pada tahap ini semua data-data dan informasi serta kebutuhan-kebutuhan
yang diperlukan untuk membuat project telah disiapkan dan dikumpulkan.
Hal-hal yang dibutuhkan di antaranya pertama adalah mendesain
technical designer architecture yang digunakan untuk produk dan seleksi
penginstalasian software, kedua merupakan dimensional modeling yang
17
nantinya akan digunakan untuk physical design dan menjadi data staging
design and development, ketiga adalah analytic application specification
yang akan digunakan untuk menganalisa application development.
-
Deployment
Setelah seluruh tahap awal dilakukan, lalu baru project akan disebarkan
untuk di uji coba, apakah sudah sesuai dengan bisnis yg diinginkan.jika
sudah maka lanjut pada tahap selanjutnya.
-
Maintenance and growth
Setelah diuji coba, jika sesuai maka project akan di maintanence serta
dikembangkan lagi.jangan lupa untuk membangun security pada sistem
yang telah dibangun.
2.1.10.3 Perbedaan OLTP dan Data Warehouse
Conolly dan Begg (2010, p1198) menjelaskan perbedaan antara
sistem OLTP dan sistem data warehouse yaitu :
Tabel 2.1 Perbedaan OLTP dan Data Warehouse (Sumber : Connoly dan
Begg, 2010, p1198)
Karakteristik
OLTP
Main purpose
Mendukung
proses Mendukung proses analisis
operasional
Menangani data-data Menangani data-data historis
yang sekarang
Real-time
Tergantung pada panjang siklus
untuk suplemen data warehouse
(tetapi trend menuju suplemen
real-time)
Detailed data
Detail data, lightly, dan highly
summarize data
High
level
of Medium to low level of
transaction throughput transaction throughput
Dapat diprediksi, one- Tidak
dapat
diprediksi,
dimensional, relatively multidimensional,
dynamic
static fixed reporting
reporting
Data age
Data latency
Data granularity
Data processing
Reporting
Sistem Data Warehouse
18
Users
Melayani
sejumlah Melayani
sebagian
kecil
pengguna operasional
pengguna manajerial (tetapi
trend mendukung kebutuhan
analisis pengguna operasional)
2.1.10.4 Struktur Data Warehouse
Dalam struktur data warehouse terdapat older level of detail, current
level of detail, level of summarized data (level data mart) dan level of highly
summarized data. Aliran data (data flow) di data warehouse berasal dari
lingkungan operasional. Biasanya transformasi signifikan terjadi dari data
yang ada di level operasional menuju ke level data warehouse. (Kimball &
Ross, 2004, p33).
1. Current Detail Data
Current Detail Data menggambarkan data detil yang aktif pada saat ini
dan keadaan yang sedang berjalan. Data jenis ini memerlukan media
penyimpanan yang besar dan merupakan data yang sering diakses.
Current Detail Data ini cepat diakses, tetapi mahal dan kompleks dalam
pemeliharaannya.
2. Older Detail Data
Older detail data merupakan data back-up (cadangan) yang jarang
diakses. Data back-up seperti ini biasanya disimpan pada media
penyimpanan yang berbeda. Penyusunan direktori dilakukan berdasarkan
urutan umur data, sehingga data dapat tersusun rapi dan mempermudah
dalam melakukan akses selanjutnya.
3. Lightly Summarized Data
Lightly summarized data merupakan data ringkasan dari Current detail
data. Di dalam tahap ini, data belum dapat digunakan untuk pengambilan
19
keputusan karena data masih belum bersifat total summary, yang artinya
data masih bersifat detil. Akses terhadap data jenis ini biasanya digunakan
untuk memantau kondisi yang sedang dan sudah berjalan.
4. Highly Summarized Data
Highly summarized data merupakan data yang bersifat total summary.
Pada level ini, data sangat mudah diakses terutama untuk melakukan
analisis perbandingan data berdasarkan urutan waktu dan analisis yang
menggunakan data multidimensi. Data multidimensi adalah suatu
teknologi software komputer yang dirancang untuk meningkatkan
efisiensi dalam query data sehingga menjadi media penyimpanan yang
lebih baik, serta memudahkan pengambilan data dalam volume besar.
5. Metadata
Menurut Kimball & Ross (2004, p393), metadata adalah data mengenai
deskripsi dari struktur, isi, kunci, indeks dan lain-lain mengenai data.
Menurut Kimball & Ross (2004, p269-270), hal-hal penting dari metadata
meliputi:
-
ID dokumen
-
Tanggal memasukkan data ke warehouse
-
Deskripsi dari dokumen
-
Sumber dari dokumen
-
Klasifikasi dokumen
-
Indeks
-
Lokasi fisikal
-
Panjang dan referensi yang terhubung dengan dokumen
20
Syarat-syarat dalam pembuatan metadata menurut Kimball & Ross (2004,
p102):
-
Struktur data yang dikenal programmer
-
Struktur data yang dikenal analis DSS
-
Sumber data yang membantu data warehouse
-
Transformasi data ketika dilewatkan ke data warehouse
-
Model data
-
Hubungan antara model data dan data warehouse
-
History dari extracts.
2.1.10.5 Arsitektur Data Warehouse
Menurut Connolly dan Begg (2010, p1204), arsitektur data
warehouse digambarkan sebagai berikut :
Gambar 2.2 Typical Architecture of Data Warehouse (Sumber Connoly
dan Begg, 2010, p1204)
Pada Gambar 2.2 diatas dapat dijelaskan, terdapat beberapa tahap proses
dalam arsitektur data warehouse Connolly dan Begg (2010, p1204) yaitu;
21
1. Operational Data
Sumber data untuk data warehouse berasal dari Connolly dan Begg
(2010, p1203) :
-
Mainframe operasional data yang memegang kendali di hirarki
generasi pertama dan di database jaringan. Diperkirakan bahwa
mayoritas data operasional perusahaan berada dalam sistem-sistem.
-
Departemental data yang memegang kendali di kepemilikan system
file seperti VSAM, RMS, dan relational DBMS seperti Informix dan
Oracle.
-
Private data yang memegang kendali di workstation dan private
servers.
-
External system seperti internet, database komersial yang tersedia
atau database yang berhubungan dengan organisasi pemasok atau
pelanggan.
2. Operational Data Store
Operational Data Store (ODS) merupakan sebuah media
penyimpanan untuk data operasional saat ini dan terintegrasi yang
digunakan untuk analisis. ODS dibentuk dan diisi oleh data dengan cara
yang sama seperti data warehouse, tetapi ODS secara sederhana berperan
sebagai tempat penampungan sementara untuk data sebelum dipindahkan
ke warehouse.
ODS diciptakan ketika sistem operasional tidak mampu mencapai
kebutuhan sistem pelaporan. ODS menyediakan manfaat yang berguna
dari suatu relasional database dalam mengambil keputusan yang
mendukung fungsi data warehouse.
22
3. Load Manager
Load Manager melakukan semua operasi yang berhubungan
dengan extract dan load data ke dalam data warehouse. Data dapat diextract secara langsung dari sumber data atau lebih umumnya berasal dari
ODS.
4. Warehouse Manager
Warehouse Manager melakukan semua operasi yang berhubungan
dengan pengelolaan data di dalam warehouse. Operasi yang dilakukan
oleh warehouse manager antara lain:
-
Analisis data untuk memastikan konsistensi data;
-
Transformasi dan penggabungan sumber data dari penyimpanan
sementara ke dalam tabel di data warehouse;
-
Membuat indeks-indeks dan view pada tabel-tabel dasar;
-
Membuat denormalisasi (jika diperlukan);
-
Membuat agregasi (jika diperlukan);
-
Mem-backup data dan menyimpan data.
5. Query Manager
Query Manager melakukan semua operasi yang berhubungan
dengan manajemen dari pengguna query. Operasi yang dilakukan oleh
query manager meliputi pengarahan query pada tabel yang sesuai dan
penjadwalan pelaksanaan query. Dalam beberapa kasus, query manager
juga menghasilkan profil query yang memungkinkan warehouse manager
menentukan kesesuaian indeks dan agregasi.
23
6. Detail Data
Area ini menyimpan semua detil data di dalam skema database,
yang bertujuan untuk melengkapi kumpulan data untuk data warehouse.
Dalam banyak kasus, detil data tidak disimpan secara online tetapi
ditentukan oleh agregasi data ke level berikutnya. Bagaimanapun, pada
dasarnya, detil data dimasukkan ke dalam data warehouse untuk
menambah agregasi data.
7. Lightly and Highly Summarized Data
Tujuan dari ringkasan informasi adalah untuk meningkatkan
kemampuan queries. Walaupun ada harga operasional yang berhubungan
secara inisial dengan meringkas data, ini ditutupi dengan menghilangkan
keperluan untuk melanjutkan ringkasan operasi-operasi (seperti sorting
atau grouping) dalam menjawab query pengguna. Ringkasan data
diperbaharui secara terus-menerus sebagai data baru yang dimuat ke
dalam data warehouse.
8. Achieve / Backup Data
Area warehouse yang menyimpan data detail dan ringkasan data
dengan tujuan sebagai arsip dan backup data. Data ditransfer ke
penyimpanan arsip seperti magnetic tape atau optical disk.
9. Metadata
Area warehouse ini meyimpan semua definisi metadata (data
tentang data) menggunakan semua proses yang ada pada data warehouse.
Metadata digunakan untuk beberapa tujuan termasuk :
-
Proses ektraksi dan loading - metadata digunakan untuk memetakan
data source manjadi bentuk data yang lebih umum dalam warehouse.
24
-
Proses
manajemen
warehouse
-
metadata
digunakan
untuk
mengotomatisasi produksi dari tabel ringkasan.
-
Sebagai bagian dari proses manajemen query - metadata digunakan
untuk query secara langsung pada sumber data yang paling sesuai.
10. End-User Access Tools
Tujuan utama dari data warehouse adalah menyediakan informasi
kepada pengguna untuk mendukung pengambilan keputusan. Para pengguna
ini berinteraksi dengan warehouse menggunakan end-user access tool. Ada
lima kelompok utama dari end-user access tool, yaitu :
Reporting dan Query Tools
-
Reporting tool meliputi production reporting tool dan report writer.
Production reporting tool digunakan untuk menghasilkan laporan
operasional regular, seperti pemesanan dan pembayaran karyawan.
Sedangkan report writer adalah desktop tool yang dirancang untuk enduser. Query tool untuk data warehouse dirancang untuk menerima SQL
atau menghasilkan pernyataan SQL untuk proses query data yang
tersimpan di dalam warehouse.
-
Application Development Tools
Aplikasi yang dapat digunakan user yaitu graphical data acccess yang
dirancang secara untuk sisi client server. Beberapa application
development tools terintegrasi dengan OLAP tools dan mengakses semua
sistem database utama yang mencakup Oracle, Sybase, dan Informix.
-
Executive Information System (EIS) Tools
Executive Information System semula dikembangkan untuk mendukung
pengambilan
keputusan
tingkat
tinggi.
Kemudian
meluas
untuk
25
mendukung semua tingkat manajemen. EIS tool yang terhubung dengan
mainframe memungkinkan pengguna membuat aplikasi pendukung
pengambilan keputusan untuk menyediakan overview data organisasi dan
mengakses sumber data eksternal.
-
Online Analytical Processing (OLAP) Tools
OLAP tools berbasis pada konsep multi-dimensional databasedan
memperbolehkan pengguna untuk menganalisis data dengan menggunakan
view yang kompleks dan multi-dimensional view. Tool ini mengasumsikan
bahwa data diatur dalam model multidimensi yang didukung oleh multidimensional database (MDDB) atau oleh relational database yang
dirancang untuk mendapatkan multi-dimensional queries.
-
Data Mining Tools
Data Mining adalah proses menemukan korelasi, pola, dan arah baru yang
mempunyai arti dengan ‘menambang’ (mining) sejumlah besar data
dengan menggunakan
teknik statistik, matematika, dan artificial
intelligence (AI). Data Mining memiliki potensi untuk mengganti
kemampuan dari OLAP tools.
2.1.10.6 Proses ETL (Extract - Transform - Load)
1. Extraction
Menurut Connolly dan Begg (2010, p1208), extraction adalah sebuah tahapan
dimana mengambil data dari sumber data bagi EDW (Environment Data
Warehouse), sumber ini biasanya terdiri dari database OLTP dan juga bisa
terdapat beberapa sumber lainnya seperti database pribadi, data ERP, dan
data penggunaan dari web.
26
2. Transformation
Menurut Connolly dan Begg (2010, p1208), transformation adalah tahapan
yag menggunakan beberapa peraturan atau fungsi dari data yang sudah
diambil dan mengukur bagaimana data tersebut dapat digunakan untuk
analisis dan dapat meliputi transformasi seperti penjualan data, encoding
data, penggabungan data, pemisahan data, penghitungan data, dan pembuatan
surrogate keys.
3. Load
Menurut Connolly dan Begg (2010, p1209), loading adalah tahapan untuk
memasukkan data yang sudah mengalami proses transformasi ke dalam data
warehouse.
2.1.10.7 Aliran Informasi Data Warehouse
Menurut Connolly dan Begg (2005, p1162), aliran informasi data
warehouse digambarkan sebagai berikut :
Gambar 2.3 Aliran Informasi Data Warehouse
(Connolly dan Begg, 2005:p1162)
27
Pada Gambar 2.3 diatas dapat dijelaskan, mengenai aliran data
warehouse menurut Connolly dan Begg (2005, p1162) yaitu;
-
Inflow
Menurut Connolly dan Begg (2005:1162), inflow adalah proses
yang berhubungan dengan extraction, cleansing, dan loading data dari
sistem sumber ke dalam data warehouse. Pada saat data akan dimasukkan
ke dalam data warehouse, data harus direkonstruksi. Rekonstruksi data
melibatkan proses sebagai berikut:
a. Membersihkan data yang kotor
b. Menetapkan ulang struktur data agar sesuai dengan requirement baru dari
data warehouse, sebagai contoh menambah atau menghapus field, dan
denormalisasi data.
c. Memastikan bahwa sumber data konsisten dengan data yang telah ada di
data warehouse.
-
Upflow
Menurut Connolly dan Begg (2005:1163), upflow adalah proses
yang berhubungan dengan menambahkan nilai ke dalam data warehouse
melalui proses summarizing, packaging, dan distribution data. Aktivitas
yang berhubungan dengan upflow meliputi:
a. Summarizing, yaitu meringkas data dengan memilih, memproyeksikan,
menggabungkan, dan menghubungkan data relasional ke dalam view yang
lebih sesuai dan berguna bagi pengguna akhir.
b. Packaging, yaitu mengemas data dengan mengubah data detail atau
summarized ke dalam format yang lebih berguna, seperti spreadsheet, text
document, grafik, presentasi grafis lainnya, database pribadi, dan animasi.
28
c. Distributing, yaitu menyebarkan data ke dalam grup yang sesuai untuk
meningkatkan ketersediaan dan akses.
-
Downflow
Menurut Connolly dan Begg (2005:1164), downflow adalah proses
yang berhubungan dengan mengarsip dan mem-backup data dalam data
warehouse. Mengarsip data lama memainkan peranan yang penting dalam
me-maintain efektivitas dan kinerja dari data warehouse dengan
mengirim data yang lebih lama dari nilai terbatas ke dalam arsip media
penyimpanan seperti magnetic tape atau optical disc.
-
Outflow
Menurut Connolly dan Begg (2005:1164), outflow adalah proses
yang berhubungan dengan membuat data tersedia bagi pengguna akhir.
Dua aktivitas kunci yang terlibat dalam outflow, yaitu:
a. Accessing, yang berfokus pada memenuhi permintaan pengguna akhir
untuk data yang dibutuhkannya.
b. Delivering, yang berfokus secara pro-aktif menyampaikan informasi pada
work station pengguna akhir dan disebut juga sebagai jenis dari proses
‘publish and subscribe’.
-
Meta-flow
Menurut Connolly dan Begg (2005:1165), metaflow adalah proses
yang berhubungan dengan management metadata.
29
2.1.10.8 Data Track
Menurut Kimball dan Ross (2010:98), data track dimulai dengan
merancang sasaran dari model dimensional untuk memenuhi kebutuhan
bisnis, dengan tetap mempertimbangkan data pokok yang sebenarnya.
Model dimensional diubah menjadi rancangan fisik saat strategi
penyesuaian kinerja dipertimbangkan, lalu tantangan rancangan dan
pembangunan sistem Extract, Transform, Load (ETL) ditangani.
Menurut Kimball dan Ross (2002:353), data track
dapat terbagi
menjadi tiga kegiatan, yaitu :
a. Dimensional
Modeling Menurut Kimball dan Ross, (2010:211), dimensional modeling
dapat dilakukan melalui sembilan langkah sebagai berikut:
1. Choose the process (memilih proses)
Menurut Kimball dan Ross (2010:211), langkah pertama dalam
dimensional modeling adalah pemilihan proses, dimana proses merupakan
aktivitas operasional tertentu. Proses bisnis pada area subjek yang harus
dipilih adalah yang paling bersentuhan dengan masalah keuangan. Proses
yang dibuat juga harus menjawab pertanyaan bisnis yang penting dan paling
banyak diakses dari sudut pandang ekstraksi data.
2. Choose the grain (memilih grain)
Menurut Kimball dan Ross (2010:211), memilih grain berarti menentukan
secara pasti apa yang akan diwakili oleh tiap record pada tabel fakta.
30
3. Identify
and
conform
the
dimensions
(mengidentifikasi
dan
menyesuaikan dimensi)
Menurut Kimball dan Ross (2010:211), dimensi merupakan
sumber bagi constraint pada query dan baris header pada laporan bagi
pengguna. Dimensi memuat kamus perusahaan bagi pengguna. Dimensi
yang dibuat dengan baik akan membuat model mudah dimengerti dan
mudah digunakan.
4. Choose the facts (memilih fakta)
Menurut Kimball dan Ross (2010:213), grain dari tabel fakta
menentukan fakta mana yang dapat digunakan untuk proses bisnis
tertentu. Semua fakta harus diekspresikan pada tingkatan yang sama.
5. Store pre-calculations in the fact table (menyimpan pre-calculation di
tabel fakta)
Menurut Kimball dan Ross (2010:213), setelah tabel fakta
telah dibuat, perlu dilakukan pengujian ulang untuk masing-masing
fakta, apakah ada kemungkinan melakukan prekalkulasi. Fakta hasil
kalkulasi
sebaiknya
disimpan
ke
dalam
tabel
fakta
untuk
meningkatkan kinerja hasil query.
6. Round out the dimension tables (melengkapi tabel dimensi)
Menurut Kimball dan Ross (2010:214), pada titik ini tabel
fakta telah lengkap, dan peran tabel dimensi dalam menyediakan
dukungan bagi tabel fakta melalui constraint pada atribut dimensional
dapat dipahami. Pada tahap ini dapat ditambahkan deskripsi berbentuk
teks sebanyak mungkin ke dalam dimensi.
31
7. Choose the duration of database (memilih durasi database)
Menurut Kimball dan Ross (2010:215), durasi mengukur
seberapa jauh waktu yang akan digambarkan dalam tabel fakta.
Dalam banyak bisnis, perlu melihat periode waktu yang sama seperti
tahun sebelumnya.
8. Determine the need to track slowly changing dimensions (menentukan
kebutuhan untuk melacak perubahan dari dimensi secara perlahan)
Menurut Kimball dan Ross (2010:215), deskripsi yang tepat
dari produk dan pelanggan lama harus digunakan untuk histori
transaksi lama. Data warehouse harus menetapkan key yang
digeneralisasi pada dimensi yang penting ini dengan tujuan untuk
menghilangkan snapshot berulang dari pelanggan dan produk selama
rentang waktu tersebut.
9. Decide the physical design (menetapkan rancangan fisik)
Menurut Kimball dan Ross (2010:211), setelah melakukan
delapan langkah sebelumnya, dan melengkapi logical design,
berikutnya perlu dilakukan physical design. Pada tahap ini dilakukan
proses seperti mengurutkan tabel fakta dalam media penyimpanan,
serta menampilkan rangkuman dan agregasi yang telah ditentukan
sebelumnya.
Selain
itu,
physical
design
juga
menyangkut
administrasi, backup, indexing, dan keamanan.
b. Physical Design
Menurut Kimball dan Ross (2002:355), model dimensional yang telah
dibangun pada bagian sebelumnya perlu diterjemahkan ke dalam physical
32
design. Dalam dimensional modeling, logical dan physical design memiliki
kemiripan yang sangat dekat.
-
Aggregation Strategy
Menurut Kimball dan Ross (2002:356), setiap data warehouse harus
memuat tabel agregasi yang dihitung dan disimpan terlebih dahulu.
Setiap agregasi tabel fakta harus menempati tabel fakta fisikalnya
sendiri.
-
Initial Indexing Strategy
Menurut Kimball dan Ross (2002:357), tabel dimensi akan memiliki
index yang unik pada primary key kolom tunggal. Tabel fakta
merupakan raksasa dalam data warehouse, jadi perlu memberikan
index secara berhati-hati. Primary key dari tabel fakta hampir selalu
berupa
sekumpulan
dari
foreign
key.
Biasanya
kita
perlu
menempatkan index gabungan secara tunggal pada dimensi utama
dari tabel fakta. Karena banyak query dimensional diwakili oleh
dimensi waktu, maka foreign key waktu harus menjadi index term
utama.
c. ETL Design & Development
Aktivitas terakhir dari data track adalah merancang dan mengembangkan
staging atau sistem ETL, yang terdiri dari:
-
Dimension Table Staging
Menurut Kimball dan Ross (2002:359), karena tabel dimensi perlu
selaras dan dapat digunakan kembali untuk tiap model dimensional,
secara khusus mereka memiliki pengaruh yang lebih terpusat.
Pengaruh dimensi bertanggung jawab untuk menentukan, memelihara,
33
dan menyebarkan dimensi tertentu untuk data mart yang tepat.
Dimensi dapat diproses secara bersamaan. Tetapi semua dimensi yang
terlibat dalam skema harus dimasukkan terlebih dahulu ke staging dari
data fakta.
Staging tabel dimensi melibatkan langkah-langkah berikut :
a. Mengekstrak data dimensional dari sumber sistem operasional
b. Membersihkan nilai atribut
c. Mengatur penugasan surrogate key
-
Fact Table Staging
Menurut Kimball dan Ross (2002:361-362), pada saat tabel dimensi
direplikasi ke semua data mart yang sesuai, tabel fakta secara tegas
tidak digandakan. Dengan data warehouse bus architecture, batasan
disekitar tabel fakta didasarkan pada sumber proses bisnis, bukan
garis organisasi.
Dalam staging tabel fakta dilakukan langkah-langkah :
a. Mengekstrak data dari sumber sistem operasional
b. Menerima update dimensi dari penanggung jawab dimensi
c. Memisahkan data fakta sesuai granularitas yang dibutuhkan
d. Mengubah data fakta sesuai kebutuhan
e. Mengganti key sumber operasional dengan surrogate key
f. Menambahkan key tambahan untuk konteks yang diketahui,
g. Memastikan kualitas data tabel fakta,
h. Membangun atau memperbaharui agregasi tabel fakta,
i. Memberi tahu pengguna bahwa tabel fakta siap digunakan.
34
2.1.10.9 Skema Bintang
Menurut Conolly dan Begg (2010, p1227), skema bintang merupakan
data model dimensional yang memiliki tabel fakta yang terletak di tengahtengah dan dikelilingi oleh tabel dimensi yang denormalisasi.
.
Gambar 2.4 Skema Bintang (Sumber : Connolly dan Begg,
2010, p1228)
Keuntungan Menggunakan Skema Bintang Connolly dan Begg (2010,p1230)
mengemukakan keuntungan menggunakan skema bintang antara lain :
1. Efisien. Struktur database yang konsisten membuat akses data lebih
efisien dengan menggunakan berbagai tool untuk menampilkan data
termasul laporan tertulis dan query.
2. Kemampuan untuk mengatasi perubahan kebutuhan. Skema bintang dapat
beradaptasi terhadap perubahan kebutuhan, karena semua tabel dimensi
memiliki kesamaan dalam hal menyediakan akses ke tabel fakta.
3. Extensibility. Model dimensional dapat dikembangkan. Contohnya
menambah tabel fakta selama data masih konsisten, menambah tabel
35
dimensi selama masih ada nilai tunggal di tabel dimensi tersebut yang
mendefinisikan setiap record tabel fakta yang ada.
4. Kemampuan untuk menggambarkan situasi bisnis pada umumnya.
5. Proses query yang bisa diprediksi. Aplikasi data warehouse yang dapat
melakukan drill down akan dengan mudah menambah jumlah atribut pada
tabel dimensi dari sebuah skema bintang.
2.1.10.9.1 Tipe Tabel Skema Bintang
1.
Fact Table (Tabel Fakta)
Ada beberapa pendapat yang mengungkapkan tentang pengertian dari
fact table atau tabel fakta diantaranya adalah menurut Kimball dan Ross
(2002, p402), yang menyatakan bahwa tabel fakta adalah sebuah skema
bintang (dimentional model) adalah tabel central dengan pengukuran
performansi bisnis dalam bentuk numeric yang memeliki karakteristik
berupa sebuah composite key, yang tiap-tiap elemen nya adalah foreign
key yang didapat dari tabel dimensi.
Sedangkan Connoly dan Begg (2010, p1227) berpendapat bahwa fact
table merupakan suatu tabel dengan gabungan primary key.
2.
Dimension Table (Tabel Dimensi)
Dimensi adalah sebuah entitas independent pada sebuah model
dimensional yang berfungsi sebagai pintu masuk atau mekanisme untuk
memecah-mecah pengukuran tambahan yang ada pada tabel fakta dari
model dimensional (Kimball dan Ross, 2002, p399).
36
Pengertian tabel dimensi menurut Kimball dan Ross adalah sebuah tabel
pada model dimensional yang memiliki sebuah primary key tunggal dan
kolom dengan atribut deskriptif.
2.1.10.10 Data Mart
Menurut Ralph Kimball (2008, p1.4) data mart adalah Sebuah subset
logis dari data warehouse yang lengkap yaitu data mart sebagai pembatasan
data warehouse untuk proses bisnis tunggal atau proses bisnis kelompok.
Data mart mungkin dibangun oleh satu bagian dari bisnis, dan data mart
biasanya diorganisir oleh proses bisnis tunggal.
Kemudian Connolly dan Begg (2010, p1214) mengeluarkan pendapat
bahwa data mart adalah subset dari data warehouse yang mendukung
kebutuhan departemen tertentu dan fungsi bisnis.
Ada beberapa karakteristik yang membedakan data mart dengan data
warehouse diantaranya:
-
Data mart hanya berfokus pada kebutuhan user yang berhubungan
dengan sebuah departement atau fungsi bisnis
-
Data mart biasanya tidak mengandung data operasional yang detail dan
rinci seperti data warehouse.
-
Data mart hanya mengandung sedikit infomasi dibandingkan dengan data
wareouse. Data mart lebih mudah dipahami dan dinavigasi.
37
2.1.10.11 Keuntungan Data Warehouse
Menurut Connolly dan Begg (2010, p1198), data warehouse yang
telah diimplementasikan dengan baik dapat memberikan keuntungan bagi
perusahaan, yaitu :
1. Berpotensi mengembalikan nilai balik yang tinggi pada investasi. Sebuah
organisasi harus mengeluarkan uang dan sumber daya yang cukup besar
untuk memastikan kalau data warehouse telah diimplementasikan dengan
baik dan biaya yang dikeluarkan dapat berkisar antara 50.000 pound
sampai 10.000.000 pound. Hal ini tergantung dari solusi teknikan yang
diinginkan.
2. Keuntungan kompetitif keuntungan kompetitif didapatkan apabila
pengambil keputusan mengakses data yang dapat mengungkapkan
informasi yang sebelumnya tidak diketahui, tidak tersedia, misalnya
informasi mengenai konsumen, trend, dan permintaan.
3. Meningkatkan produktifitas para pengambil keputusan perusahaan Data
warehouse meningkatkan produktifitas para pengambil keputusan
perusahaan dengan menciptakan sebuah database yang terintegrasi secara
konsisten, berorientasi pada subjek, dan data historis. Data warehouse
mengintegrasikan data dari beberapa sumber yang tidak kompetibel ke
dalam bentuk yang dapat menyediakan satu pandangan yang konsisten
dari organisasi. Dengan mengubah data menjadi informasi yang berguna,
maka seorang pengambil keputusan dapat melakukan analisa yang lebih
akurat dan konsisten.
Kemudian berdasarkan jurnal yang dibuat oleh Restia Rezalini
P.S., Wiwik Anggraeni, dan Radityo P. W. (2010) pembangunan data
38
warehouse salah satu cara yang bertujuan untuk mengekstrak informasi
penting yang tersebar pada beberapa sistem informasi. Data yang sudah
terintegrasi selanjutnya dapat dimanfaatkan untuk kegiatan penyampaian
informasi yang dapat ditinjau dari berbagai dimensi dan dapat diatur
tingkatan rinciannya.
2.1.11 Kapasitas Media Penyimpanan
Rumus
yang
akan
digunakan
untuk
perhitungan
kebutuhan
penyimpanan record dalam SQL Server Book Online 2008 R2 adalah:
-
Num_Rows = menentukan jumlah baris dalam tabel.
-
Num_Col = menentukan jumlah kolom dalam tabel.
-
Fixed_Data_Size = jumlah bytes yang dibutuhkan oleh semua kolom
yang mempunyai tipe data dengan ukuran yang pasti.
-
Num_Variable_Cols = jumlah kolom yang mempunyai tipe data dengan
ukuran tidak pasti seperti varchar, nvarchar, varbinary
-
Max_Var_Size = ukuran byte terbesar dari semua kolom yang mempunyai
tipe data dengan ukuran tidak pasti
-
Null_Bitmap = bit satus null kolom = 2 + ((Num_Col + 7) / 8)
-
Variable_Data_Size = Jumlah bytes yang dibutuhkan untuk semua kolom
variabel = 2 + (Num_Variable_Cols x 2) + Max_Var_Size
-
Row_Size = Fixed_Data _Size + Null_Bitmap + 4
-
Rows_Per_Page = 8096 / (Row_Size + 2)
-
Num_Of_Pages = Num_Row / Rows_Per_Page
-
Heap_Size (Bytes) = 8192 x Num_Of_Page
39
Perhitungan untuk fakta yang mengalami pertumbuhan data adalah sebagai
berikut:
Rn = R x (n + (1+i)n )
R = jumlah record
n = tahun
i = persentase pertumbuhan record per-tahun
Perhitungan untuk dimensi yang mengalami pertumbuhan data adalah sebagai
berikut:
Rn = R x (i+1)n
R = jumlah record
n = tahun
i = presentase pertumbuhan record per-tahun
2.1.12 Fact Finding
Menurut Connoly dan Begg (2010:341), ada beberapa teknik dalam fact
finding, yaitu:
1. Memeriksa dokumentasi (Examining Documentation)
Biasanya berguna ketika ingin mencoba untuk melihat apa yang
dibutuhkan sebuah database dan mencari dokumen yang berhubungan
dengan masalah sehingga mempercepat pemahaman sistem.
2. Wawancara (Interviewing)
Wawancara merupakan teknik untuk mendapatkan informasi dari individu
secara tatap muka. Terdapat dua bentuk wawancara, yaitu unstructured
interview dimana fokus wawancara dapat berpindah-pindah dan
structured interview dimana pewawancara memiliki pertanyaan yang
40
spesifik untuk dijawab oleh responden. Pertanyaan dapat berupa openended questions dan closed ended-questions.
3. Observing The Enterprise In Operation
Teknik ini yang paling efektif untuk memahami sistem. Teknik ini
memungkinkan partisipasi atau pengamat perorangan pada saat
melakukan aktivitas.
4. Penelitian
Teknik yang berguna untuk melakukan penelitian mengenai aplikasi.
Jurnal, referensi buku, dan internet merupakan informasi yang baik.
Sumber
informasi
tersebut
digunakan
sebagai
landasan
dalam
menyelesaikan beberapa masalah.
5. Kuesioner
Kuesioner adalah fasilitas untuk mendapatkan fakta dari banyak perserta
sekaligus. Terdapat dua bentuk pertanyaan pada suatu kuesioner, freeformat question dan fixed-format question.
-
Free format question mengedepankan kebebasan responden dalam
menjawab pertanyaan sehingga pertanyaan tidak disertai oleh jawaban
yang sudah diarahkan sebelumnya.
-
Fixed-format question menginginkan jawaban dengan memiliki
jawaban yang paling sesuai dari beberapa jawaban yang ada.
41
2.2
Teori-teori Khusus
2.2.1
Pengertian Pariwisata
Menurut H.Kodhyat (2013, p6) jenis perjalanan yang dikategorikan
sebagai wisata adalah jenis perjalanan yang didorong untuk memenuhi rasa
ingin tahu tentang sesuatu atau untuk keperluan yang bersifat edukatif dan
bersifat reaktif. Contoh dari perjalanan tersebut salah satunya adalah
perjalanan yang dilakukan para antropolog untuk mengetahui pola hidup
masyarakat tradisional dan juga yang dilakukan para pengamat burung
dihutan tropis untuk mengetahui pola hidup burung.
2.2.2
Pengertian Wisata
Menurut H.Kodhyat (2013, p7) mendefinisikan wisatawan adalah
pengunjung sementara yang tinggal sekurang – kurangnya 24 jam, dengan
kata lain harus bermalam atau menginap di tempat atau negara yang
dikunjungi dengan maksud dan tujuan perjalanan yang dapat digolongkan
sebagai berikut:
- Pesiar (leisure), yaitu untuk keperluan liburan, kesehatan, studi, agama
(ziarah) dan olahraga.
- Non-pesiar yaitu untuk hubungan dagang (bussiness) dan kunjungan
keluarga.
2.2.3
Pengertian Ekonomi Kreatif
Togar Simatupang (2013, p131) mendefinisikan bahwa ekonomi
kreatif adalah sistim kegiatan manusia yang berkaitan dengan kreasi,
produksi, distribusi, pertukaran, dan konsumsi barang serta jasa yang bernilai
cultural, artistic, estetika, intelektual, dan emosional.
42
2.2.4
PHP (PHP Hypertext Protocol)
Menurut Connolly and Begg (2005, P1014), PHP adalah bahasa
pemrograman open source yang menempel pada HTML yang didukung oleh
banyak web sever termasuk apache HTTP server dan Microsoft’s internet
information server, dan pilihan bahasa pemrograman Linux web. Salah satu
keuntungan dari PHP adalah dapat diperpanjang, dan nomor modul
perpanjangannya sudah menyediakan dukungan seperti koneksi basis data,
mail, dan XML.
2.2.5
CSS (Cascading Style Sheets)
Menurut Sulistyawan, Rubianto, Saleh (2008, P32), CSS adalah suatu
bahasa stylesheets yang mengatur tampilan suatun dokumen. Pada umumnya
CSS digunakan untuk mengatur tampilan dokumen. CSS memungkinkan kita
untuk menampilkan halaman yang sama dengna format yang berbeda.
Dengan CSS, tampilan website akan lebih cantik dan konsisten. Ada dua cara
untuk menuliskan kode CSS. Pertama secara internal, yaitu menuliskan
langsung diantara tag HTML/XHTML. Kedua secara eksternal, yaitu kode
CSS disimpan dalam file yang terpisah kemudian dipanggil saat halaman web
dibuka,
CSS
sendiri
direkomendasikan oleh
merupakan
sebuah
W3C (World
Wide
teknologi
internet
yang
Web Consortium) dan
diperkenalkan pada tahun 1996.
2.2.6
JQuery
Menurut Beighley (2010,P8) JQuery adalah open source add-on
pustaka Javascript yang menekankan pada interaksi antara Javascript dan
HTML. JQuery merupakan kode Javascript yang telah ditulis dan tinggal
43
menambahkan satu atau dua baris kode untuk memanggil JQuery.
JQuery memiliki banyak keuntungan, diantara lainnya adalah :
2.2.7
-
Mudah digunakan dan dipelajari
-
Ringkas dan ringan tidak perlu me-reload 1 halaman untuk dijalankan
-
Lisensi bebas
SQL
Menurut Yeni Kustiyaningsih (2010,p.145) Basis data adalah
sekumpulan informasi yang diatur agar mudah dicari. Dalam arti umum basis
data adalah sekumpulan data yang diproses dengan bantuan komputer yang
memungkinkan data dapat diakses dengan mudah dan tepat, yang dapat
digambarkan sebagai aktivitas dari satu atau lebih organisasi yang berelasi.
Tabel ini terdiri atas sejumlah bari dan setiap baris mengandung satu
atau beberapa kolom. Di dalam PHP telah menyediakan fungsi untuk koneksi
ke basis data dengan sejumlah fungsi untuk pengaturan baik menghubungkan
maupun memutuskan koneksi dengan server database SQL sebagai sarana
untuk mengumpulkan informasi.
Pada umumnya, perintah yang paling sering digunakan dalam SQL
adalah Select (mengambil), insert (menambah), update(mengubah), dan
delete (menghapus). Selain itu, SQL juga menyediakan perintah untuk
membuat database, field, ataupun index menambah atau menghapus data.
44
2.2.8
Kerangka Berpikir
Dalam penelitian skripsi ini adapun kerangka berpikir yang di lakukan
dapat dapat dijelaskan dalam gambar sebagai berikut:
Gambar 2.5 Tahapan perancangan data warehouse
Download