Statistik Non-Parametrik merupakan alternatif dari statistik parametrik ketika asumsi-asumsi yang mendasari dalam statistik parametrik tidak dapat terpenuhi. Untuk mengenal lebih jauh mengenai statistik non-parametrik. Sebelum berbicara mengenai statistik nonparametrik, ada baiknya kita bahas apa itu statistik parametrik.

Pada umumnya, setelah data dikumpulkan, langkah selanjutnya adalah mencari nilai tengahnya (mean) dan  simpangannya (variance), kemudian dilakukan uji-z atau uji-t. Semua tindakan yang dilakukan  di atas merupakan prosedur umum statistik parametric yang mengacu pada suatu parameter yang dipunyai oleh sebuah distribusi.

Berbeda dengan statistik parametrik, statistik nonparametrik adalah prosedur statistik yang tidak mengacu pada parameter tertentu. Itulah sebabnya, statistik nonparametrik sering disebut sebagai prosedur yang bebas distribusi (free-distibution procedures).

Banyak orang berpendapat, jika data yang dikumpulkan terlalu kecil maka prosedur statistik nonparametrik lebih baik digunakan. Pendapat ini bisa benar dan bisa pula salah. Masalahnya adalah, bagaimana mendefinisikan besar-kecilnya suatu data? Bukankah hal ini sangat relatif? Yang jelas, kita pasti menggunakan statistik nonparametrik bila kita tidak mengetahui dengan pasti distribusi dari data yang kita amati.

Namun jika kita yakin data yang diamati berdistribusi normal, misalkan dibuktikan dengan memakai uji statistik, maka kita bisa memakai prosedur statistik parametrik untuk distribusi normal. Sebaliknya, walaupun data yang dikumpukan berjumlah besar, tetapi tidak dapat dipastikan distribusinya, maka sebaiknya dipakai prosedur statistik nonparametrik.

Statistik nonparametrik mempunyai beberapa kelebihan dan kekurangan. Kelebihannya antara lain adalah:

  1. Tingkat kesalahan penggunaan prosedur statistik nonparametrik relatif kecil karena statistik jenis ini tidak memerlukan banyak asumsi.
  2. Perhitungan yang harus dilakukan pada umumnya sederhana dan mudah, khususnya untuk data yang kecil.
  3. Konsep dalam statistik nonparametrik mudah untuk dimengerti.
  4. Dapat digunakan untuk menganalisa data yang berbentuk hitungan maupun peringkat (rank).

Sebaliknya, kekurangan statistik nonparametrik yang paling utama adalah hasil tidak selalu sesuai dengan yang diharapkan karena kesederhanaan perhitungannya. Namun, walaupun perhitungan dalam statistik nonparametrik sangat sederhana, bila jumlah datanya sangat besar maka dibutuhkan perhitungan yang sangat lama. Untuk kasus yang demikian, prosedur statistik parametrik lebih tepat untuk digunakan.

Berikut adalah beberapa uji statistik yang biasa dipakai. Kolom pertama menguraikan uji statistik parametrik, sementara kolom kedua menampilkan uji statistik nonparametrik yang sepadan.

Uji Parametrik (menggunakan asumsi distribusi Normal)

Uji nonparametrik yang bersesuaian

Tujuan

Uji – t untuk sample bebas Uji Mann-Whitney U; Uji  Wilcoxon jumlah peringkat Membandingkan dua sample bebas
Uji – t  berpasangan Uji Wilcoxon pasangan dengan peringkat yang cocok Meneliti perbedaan dalam  suatu grup
Koefisien korelasi Pearson Koefisien korelasi peringkat Spearman Mengetahui hubungan korelasi linier antara dua peubah
Analisa varians satu arah (Uji F ) Analisa varians dengan menggunakan peringkat Kruskal-Wallis Membandingkan tiga grup atau lebih
Analisa varians dua arah Analisa varians dua arah Friedman Mabandingkan tiga grup atau lebih dengan menggunakan dua faktor yang berbeda

Jadi dapat disumpulkan bahwa penggunaan statistik nonparametrik lebih diutamakan jika hipotetis yang akan diuji tidak melibatkan parameter dari populasi. Data yang diambil tidak memenuhi syarat yang ditetapkan oleh statistik parametrik dan asumsi-asumsinya ditolak, atau bila kita membutuhkan hasil yang cepat sebelum melakukan penelitian berikutnya.

Ada terdapat enam persyaratan yang harus dipenuhi pada uji asumsi klasik agar data observasi tersebut dapat menggunakan uji statistik parametrik atau statistik inferesial, yaitu :

  1. Uji kerandoman
  2. Uji normalitas
  3. Uji linearitas
  4. Uji heteroskedastisitas
  5. Uji Multikolinearitas
  6. Uji Autokorelasi

Mari kita sama-sama membahasnya satu persatu dari keenam persyaratan uji asumsi klasik tersebut di atas.

  1. Uji kerandoman
    Kerandoman data diperlukan karena data observasi yang homogen akan mengakibatkan bentuk distribusi tidak normal, disamping itu kerandoman data mencerminkan atau representatif terhadap populasinya, karena data yang diambil atau dicuplik dari suatu populasi seharusnya data itu mencerminkan sifat-sifat dari populasinya.

    Hal ini juga menyangkut variabel random, di mana variabel random adalah variabel yang nilainya merupakan hasil dari suatu peristiwa, sehingga data tersebut tidak bias atau tidak gayut atau nilai-nilai yang dihasilkan tidak berpola (heterogen).

  2. Uji normalitas
    Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel terikat dan variabel bebas keduanya mempunyai distribusi normal ataukah tidak. Model regresi yang baik adalah memiliki distribusi data normal atau mendekati normal.

    Ada beberapa pendekatan yang dapat dilakukan untuk mengetahui apakah data tersebut berdistribusi normal atau tidak yaitu : analisis grafik dan analisis statistik. Analisis statistik bisa digunakan uji Kolmogorov Smirnov, atau dengan memanfaatkan deskripsi data nilai-nilai skewness dan kurtosisnya.

  3. Uji linearitas
    Uji ini biasanya dilakukan untuk melihat apakah spesifikasi model yang digunakan sudah benar atau tidak. Apakah fungsi yang digunakan dalam suatu studi empiris sebaiknya berbentuk linear, kuadrat atau kubik. Dengan uji ini akan diperoleh informasi apakah model empiris sebaiknya linear, kuadrat atau kubik.

    Ada beberapa pendekatan yang dapat dilakukan untuk mengetahui apakah model persamaan regresi tersebut linear atau tidak yaitu : uji Durbin-Watson, uji Ramsey test dan uji Lagrange Multiplier.

  4. Uji heteroskedastisitas
    Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan yang lain tetap maka disebut Homoskedastisitas dan sebaliknya. Model regresi yang baik adalah yang homoskedastisitas. Sebagai tambahan bahwa pada umumnya data yang diambil dari populasi secara berturut-turut atau time series pada umumnya cenderung terjadi homoskedastisitas, sedangkan data yang cross-section kemungkinan besar tidak terjadi homoskedastisitas.

    Ada beberapa pendekatan untuk mengetahui apakah dalam model regresi terdapat kesamaan variance atau tidak yaitu : Pendekatan grafik yang dihasilkan dengan memplot antara nilai prediksi variabel terikat (ZPRED) dengan residualnya (SRESID). Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED. Dimana sumbu Y adalah Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi – Y sesungguhnya) yang telah distudentized.

    Dasar analisisnya adalah jika pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit) maka mengindikasikan telah terjadi heteroskedastisitas. Dan jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka telah terjadi homoskedastisitas. Pendekatan statistik dengan menggunakan uji White, uji Glejser dan uji Park.

  5. Uji multikolinearitas
    Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas. Model regresi yang baik seharusnya tidak terjadi korelasi antara variabel bebas (tidak terjadi multikolinearitas). Jika variabel bebas saling berkorelasi, maka variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel bebas yang nilai korelasi antar sesama variabel bebas sama dengan nol.

    Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi adalah sebagai berikut :

    Nilai R ² yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel bebas banyak yang tidak signifikan mempengaruhi variabel terikat. Menganalisis matrik korelasi variabel-variabel bebas.

    Jika antar variabel bebas ada korelasi yang cukup tinggi (umumnya diatas 0,90), maka hasil ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel bebas tidak berarti bebas dari multikolinearitas.

    Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel bebas.Multikolinearitas dapat juga dilihat dari : nilai tolerance dan lawannya variance inflation faktor (VIF). Kedua ukuran ini menunjukkan setiap variabel bebas manakah yang dijelaskan oleh variabel bebas lainnya. Dalam pengertian sederhana setiap variabel bebas menjadi variabel terikat dan diregres terhadap variabel bebas lainnya. Tolerance mengukur variabilitas variabel bebas yang terpilih yang tidak dapat dijelaskan oleh variabel bebas lainnya.

    Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi adalah menunjukkan adanya kolinearitas yang tinggi. Nilai cut-off yang umum dipakai adalah nilai tolerance 0,10 atau sama dengan nilai VIF di atas 10%.

  6. Uji autokorelasi
    Uji autokorelasi bertujuan menguji apakah dalam suatu model regresi linear ada korelasi antara residual (kesalahan pengganggu) pada periode sebelum dan sesudah, jika terjadi korelasi maka dinamakan terjadi autokorelasi, dan model regresi yang baik adalah yang tidak mengandung autokorelasi. Pada data silang waktu (cross-section) masalah autokorelasi jarang ditemui, namun pada data runtun waktu (time-series) masalah autokorelasi sering ditemui.

    Ada beberapa pendekatan yang digunakan untuk mengetahui apakah model regresi terdapat autokorelasi atau tidak yaitu : uji Durbin-Watson digunakan untuk autokorelasi tingkat satu (firs order autocorrelation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lag di antara variabel bebas. Uji lainnya seperti uji Lagrange Multiplier (LM Test) dan uji Statistik Q : Box – Pierce dan Ljung Box.Untuk kedua uji yang terakhir ini mensyaratkan bahwa data observasi di atas 100 sampel dan derajat autokorelasi lebih dari satu.

Korelasi peringkat.

Terdapat tiga jenis koefisien korelasi peringkat pada nonparametrik yang umumnya digunakan yaitu Spearman R, Kendal tau dan Gamma Coefficient.

Statistik chi-square juga merupakan bagian dari korelasi non-parametrik, tetapi berbeda dengan ketiga jenis korelasi tersebut, perhitungannya didasarkan pada tabel frekuensi dua arah (tabel silang). Selain itu, dalam Spearman R, Kendal tau dan Gamma mempersyaratkan data dalam skala ordinal (atau dapat diordinal/di peringkat), sedangkan pada statistik chi-square dapat berupa data nominal maupun ordinal.

Untuk statistik chi-square akan dibahas pada seri tulisan mengenai non-parametrik berikutnya Spearman R adalah ukuran korelasi pada statistik non-parametrik yang analog dengan koefisien korelasi Pearson Product Moment pada statistik parametrik. Spearman R adalah korelasi Pearson yang dihitung atas dasar rank dari data.

Kendal tau, adalah ukuran korelasi yang setara dengan Spearman R, terkait dengan asumsi yang mendasarinya serta kekuatan statistiknya. Namun, besaran Spearman R dan Kendal tau akan berbeda karena perbedaan dalam logika mendasari serta formula perhitungannya.

Jika Spearman R setara dengan koefisien korelasi Pearson Product Moment, yaitu koefisien korelasinya pada dasarnya menunjukkan proporsi variabilitas (dimana untuk Spearman R dihitung dari ranks sedangkan korelasi Pearson dari data aslinya), sebaliknya ukuran Kendal tau merupakan probabilita perbedaan antara probabilita data dua variabel dalam urutan yang sama dengan probabilita dua variabel dalam urutan yang berbeda.

Berdasarkan logika perhitungan ini, Noether (1981) dalam (Daniel,1991) mengemukakan bahwa koefisien Kendal tau lebih mudah ditafsirkan dibandingkan Spearman R.  Gamma statistic, lebih baik dibandingkan Spearman R atau Kendal tau ketika data mengandung banyak observasi yang memiliki nilai yang sama.

Gamma ekuivalen dengan Spearman R dan Kendal tau dari sisi asumsi yang mendasarinya. Tetapi dari sisi intepretasi dan perhitungannya, Gamma lebih mirip dengan Kendal tau.

Secara sederhana, untuk melihat efektivitas iklan terhadap penjualan, akan dilihat korelasi dari kedua variabel tersebut. Jika terdapat korelasi positif yang signifikan, maka dapat disimpulkan iklan tersebut efektif dalam meningkatkan penjualan. Demikian juga sebaliknya.

Untuk menghitung koefisien korelasi untuk ketiga pengukuran (tersebut, langkah pertama yang dilakukan adalah dengan memberi rangking untuk iklan dan penjualan, mulai dari yang angka terkecil sampai angka terbesar.
Model-Model Analisis Statistik Non-Parametrik
Statistik nonparametrik adalah valid dengan asumsi yang longgar serta teorinya relatif luwes. Karenanya metode ini relatif serba bisa/serba guna, memiliki banyak alternatif prosedur dan diaplikasikan dalam banyak metode-metode analisis baru.

Mengingat banyaknya alternatif prosedur statistik non-parametrik menyebabkan berbagai literatur memberikan pengelompokan kategori statistik non parametrik dengan berbagai cara yang berbeda. Namun demikian, secara sederhana dan berdasarkan prosedur yang sering digunakan, uji-uji tersebut diantaranya dapat dikelompokkan atas kategori berikut: statistik nonparametrik adalah valid dengan asumsi yang longgar serta teorinya relatif luwes. Karenanya metode ini relatif serba bisa/serba guna, memiliki banyak alternatif prosedur dan diaplikasikan dalam banyak metode-metode analisis baru.

Mengingat banyaknya alternatif prosedur statistik non-parametrik menyebabkan berbagai literatur memberikan pengelompokan kategori statistik non parametrik dengan berbagai cara yang berbeda. Namun demikian, secara sederhana dan berdasarkan prosedur yang sering digunakan, uji-uji tersebut diantaranya dapat dikelompokkan atas kategori berikut:
• Prosedur untuk data dari sampel tunggal
• Prosedur untuk data dari dua kelompok atau lebih sampel bebas (independent)
• Prosedur untuk data dari dua kelompok atau lebih sampel berhubungan (dependent)
• Korelasi peringkat dan ukuran-ukuran asosiasi lainnya

1.Prosedur untuk data dari sampel tunggal
Prosedur bertujuan untuk menduga dan menguji hipotesis parameter populasi seperti ukuran nilai sentral. Dalam statistik parametrik, ukuran nilai sentral yang umum adalah rata-rata dan median, dan pengujian hipotesisnya menggunakan uji t. Namun demikian, uji t memiliki asumis bahwa populasi dari sampel yang diambil berdistribusi normal. Jika asumsi ini tidak terpenuhi, akan mempengaruhi kesimpulan pengujian hipotesis.

Prosedur non parametrik untuk menduga nilai sentral untuk sampel tunggal ini diantaranya adalah uji tanda untuk sampel tunggal dan uji peringkat bertanda Wilcoxon. Selain pengukuran tendensi sentral, juga terdapat prosedur non parametrik lainnya untuk sampel tunggal dalam pengukuran proporsi populasi (yaitu uji binomial) dan uji kecenderungan (trend) data berdasarkan waktu (yaitu uji Cox-Stuart)

2. Prosedur untuk sampel independen.
Prosedur ini digunakan ketika kita ingin membandingkan dua variabel yang diukur dari sampel yang tidak sama (bebas). Misalnya sampel yang diambil berasal dari dua populasi yaitu populasi rumah pedagang sate dan populasi pedagang bakso, dan ingin membandingkan rata-rata pendapatan diantara kedua kelompok pedagang ini.
Dalam statistik parametrik, untuk membandingkan membandingkan nilai rata-rata dua kelompok independent, dapat digunakan uji t (t-test). Untuk nonparametrik, alternatif pengujiannya diantaranya adalah Wald-Wolfowitz runs test, Mann-Whitney U test dan Kolmogorov-Smirnov two-sample test. Selanjutnya, jika kelompok yang diperbandingkan lebih dari dua, dalam statistik parametrik dapat menggunakan analisis varians (ANOVA/MANOVA), dan pada statistik nonparametrik alternatifnya diantaranya adalah analisis varians satu arah berdasarkan peringkat Kruskal-Wallis dan Median test.

3. Prosedur untuk Sampel dependen.
Prosedur ini digunakan ketika ingin membandingkan dua variabel yang diukur dari sampel sama (berhubungan). Misalnya ingin mengetahui perbedaan produktivitas kerja, dengan pengukuran dilakukan pada sampel pekerja yang sama baik sebelum maupun sesudah pelatihan dilakukan.

Pada statistik parametrik, jika ingin membandingkan dua variabel yang diukur dalam sampel yang sama, dapat menggunakan uji t data berpasangan. Sebaliknya, alternatif non-parametrik untuk uji ini adalah Sign test dan Wilcoxon’s matched pairs test. Jika variabel diteliti bersifat dikotomi, dapat menggunakan McNemar’s Chi-Square test. Selanjutnya, jika terdapat lebih dari dua variabel, dalam statistik parametrik, dapat menggunakan ANOVA. Alternatif nonparametrik untuk metode ini adalah Friedman’s two-way analysis of variance dan Cochran Q test.

4. Korelasi Peringkat dan Ukuran-Ukuran Asosiasi Lainnya.
Dalam statistik parametrik ukuran korelasi yang umum digunakan adalah korelasi Product Moment Pearson. Diantara korelasi nonparametrik yang ekuivalen dengan koefisien korelasi standar ini dan umum digunakan adalah Spearman R, Kendal Tau dan coefficien Gamma. Selain ketiga pengukuran tersebut, Chi square yang berbasiskan tabel silang juga relatif populer digunakan dalam mengukur korelasi antar variabel.

Statistik Uji Kruskal-Wallis
Bagian ini akan membahas mengenai Statistik Uji Kruskal-Wallis, contoh perhitungan manualnya dan aplikasi pada program statistik SPSS.
Analisis varians satu arah berdasarkan peringkat Kruskal-Wallis pada statistik non-parametrik dapat digunakan pada sampel independent dengan kelompok lebih dari dua.
Korelasi Peringkat
Bagian ini akan membahas mengenai korelasi peringkat. Terdapat tiga jenis koefisien korelasi peringkat pada nonparametrik yang umumnya digunakan yaitu Spearman R, Kendal tau dan Gamma Coefficient. Statistik chi-square juga merupakan bagian dari korelasi non-parametrik, tetapi berbeda dengan ketiga jenis korelasi tersebut,

Korelasi Peringkat dengan SPSS
Tulisan ini merupakan lanjutan dari tulisan seri 4 non-parametrik yang membahas mengenai korelasi peringkat pada statistik non-parametrik. Jika pada tulisan sebelumnya diberikan pengertian dasar dan contoh perhitungan secara manual, maka pada bagian ini akan diberikan aplikasi perhitungannya menggunakan paket program statistik SPSS. Untuk memahami bagian ini, silakan baca tulisan seri 4 tersebut.

Prosedur Uji Chi Square
Prosedur X2 Test (Uji Chi Square) berdasarkan tabel silang ini adalah menabulasi (menyusun dalam bentuk tabel) suatu variabel dalam kategori dan menguji hipotesis bahwa frekuensi yang diobservasi (data yang diamati) tidak berbeda dari frekuensi yang diharapkan (frekuensi teoritis). Uji goodness-of-fit dari chi-square membandingkan antara frekuensi yang diobservasi dan frekuensi yang diharapkan (expected) pada masing-masing kategori untuk menguji bahwa semua kategori mengandung proporsi nilai yang sama atau menguji bahwa masing-masing kategori mengandung proporsi nilai tertentu.

Chi-Square dengan SPSS
Pada bagian ini, akan dibahas lebih lanjut aplikasi perhitungan chi-square dengan menggunakan paket program statistik SPSS.
Karena kasus yang digunakan adalah kasus pada seri 6 sebelumnya, silakan baca seri tersebut untuk memahami bagian ini.
Dalam aplikasi SPSS, untuk perhitunganChi Square tersebut melalui tahapan sebagai berikut: