Sunday, November 2, 2014

MULTIVARIATE Jilid 2




Prof. Dr. Imam Ghozali, M.Com
(email: ghozali_imam@yahoo.com)



TANYA:
saya sudah membeli buku pak ghozali yang berjudul SEM dengan LISREL 8.5
setelah menginstal program LISREL 8.51 (trial) saya mencoba
menggunakan SIMPLIS yg disediakan oleh LISREL dan sudah terdapat d
buku pak ghozali.

saya mencoba Bab 5 ttg regresi sederhana
path dari nama file saya sesuaikan dg posisi file saya d komputer
(baik besar kecil huruf)
E:\!BAMS\Lisrel\Latihan\Regresi Sederhana.spj
akan tetapi output tidak keluar.
mohon bantuannya
berikut saya sertakan output :


DATE: 6/ 2/2007
TIME: 5:54


L I S R E L 8.54

BY

Karl G. Jöreskog & Dag Sörbom



This program is published exclusively by
Scientific Software International, Inc.
7383 N. Lincoln Avenue, Suite 100
Lincolnwood, IL 60712, U.S.A.
Phone: (800)247-6113, (847)675-0720, Fax: (847)675-2140
Copyright by Scientific Software International, Inc., 1981-2002
Use of this program is subject to the terms specified in the
Universal Copyright Convention.
Website: www.ssicentral.com

The following lines were read from file
E:\!BAMS\Lisrel\Latihan\Regresi Sederhana.spj:

Regresi Berganda Pake Lisrel
Raw Data from file 'E:\!BAMS\Lisrel\Latihan\Regresi Sederhana.psf'
Relationships
Y = X1 X2
End of Problem

F_A_T_A_L E_R_R_O_R: A line 'Observed Variables' or a DA line

must follow immediately after title lines

Time used: 0.050 Seconds


JAWAB:
semua file hrs diberi nama sama dengan nama file
datanya (jangan menggunakan nama file lain)





TANYA:
sudah saya samakan, tp knp g bs keluar?
juga jika saya melakukan screening data lewat PRELIS output yang keluar hampir sama
mohon bantuannya. apakah file installernya korup?
soalnya ketika saya mo instal yg student keluar "cyclic redundancy error"

JAWAB:
Saya juga pernah punya pengalaman bahwa data di E
tidak bisa di baca ... akhirnya saya copy kan ke drive
C, baru bisa di jalankan ( jangan lupa untuk
menyamakan alamat nya di perintah simplis kita)....





TANYA:
1) Jika melakukan uji normalitas, data ternyata tdk
normal, setelah dilakukan transform data malah
mengurangi
jml variabel yg menyebabkan data tdk bs
diolah,bolehkah
tdk menggunakan transform data melainkan outlier
dihilangkan? Jika boleh, berapa jml maksimal outlier
yg
blh dihilangkan?
2) Jika untuk memperoleh nilai suatu variabel
menggunakan
persamaan regresi terlebih dahulu, lalu diambil
koefisiennya yg kemudian digunakan sbg koefisien
persamaan
regresi berikutnya yg menghasilkan nilai variabel
tsb.
Apakah persamaan regresi yg pertama ( yg diambil
koefisiennya ) hrs memenuhi semua kriteria uji
asumsi
klasik?
3) Jika suatu persamaan regresi adl y = ax1+ax2+ax3
apakah
nilai koefisien yg digunakan dari persamaan tsb
nilai
unstandardized atau standardized
4) Jika dari suatu persamaan regresi yg dipakai adl
standardized beta, variabel independennya hrs
distandarisasi dulu,apakah yg dimaksud disini
variabel
independen hrs menggunakan nilai standardized yg
diperoleh
dari diskriptif statistik?

JAWAB:
Mbak endah, hati-hati yang dimaksud normalitas dalam
uji asumsi klasik untuk regresi sebetulnya adalah
normalitas nilai residual atau error dari persamaan
regresinya (caranya ada lakukan regresi dan pilih save
unstandardized residual, nanti anda akan punya data
baru nilai resiodual dan ini diuji normal atau tidak).
Jika residual tdk normal, maka persamaan tregresi anda
tidak linear, maka coba menjadi semilog yaitu variabel
Y dilog dan variabel X tdk logY = a + b1X, atau X
dilog dan Y tdk Y= a + B1 LogX lihat nilai residualnya
apakah masih tdk normal jika masih tdk normal lakukan
double log yaitu Y dan X dilog Logy = a+ bLogX. jika
masih tdk normal baru anda normalkan masing-masing
variabel dengan transform

Apa beda standardized dengan unstandardized? jika
ukuran variabel anda tdk sama misal ada liter, kg dan
rp dan anda ingin melihat variabel mana yang punya
pengaruh terbesar, maka anda hrs membandingkan apel
dengan apel jadi yang dilihat adalah koefisien
standrdized, tetapi jika tujuan anda tdk ingin
membandingkan antar variabel anda bisa menggunakan
nilai unstandardized

Sesuai dengan central limit theorem, jumlah minimal
regresi adalah n=30




TANYA:
Saya sedang melakukan analisa data untuk model penelitian yang ada variabel intervening nya seperti berikut ini:

Variabel prediktor ---- Variabel Intervening --- Variabel kriterion

Saya menemui kesulitan dalam analisa data. Mohon bantuannya untuk menjawab pertanyaan-pertanyaan berikut ini:

1. Untuk melakukan uji jalur, apakah nilai path coefficientnya adalah nilai coefficient beta
dari analisa regresi ? Hasil uji jalur adalah multiplikasi dari path coefficientnya ?
2. Untuk melihat apakah betul variabel intervening adalah variabel yang berpengaruh
terhadap hubungan antara prediktor dan kriterian, yang digunakan adalah
hasil uji pengaruh tidak langsungnya atau pengaruh keseluruhan ?
ataukah dibandingkan antara hasil uji partial korelasi (dg mengontrol var intervening) dg
efek tidak langsung ? atau dibandingkan hasil uji parsial korelasi dg pengaruh
keseluruhan?
3. Apa artinya kalau hasil uji pengaruh langsungnya positif, hasil uji pengaruh tidak
langsungnya negatif dan uji pengaruh keseluruhannya (pengaruh langsung + pengaruh
tidak langsung) adalah negatif (lebih rendah dari pengaruh tidak langsungnya) ?

JAWAB:
Dalam analisis jalur yang dibaca adalah koefisien
standardized (krn anda akan membandingkan antar jalur
shng satuannya hrs sama dan itu standardized)

Apakah pengaruhnya langsung atau lewat intervening
anda lihat koefisien jalur langsung dibandingkan
dengan perkalian antar koefisien jalur tdk langsung,
mana yg lebih besar. Syaratnya semua jalur hrs
signifikan, jika jalur langsung sdh tdk signifikan
maka yg benar adalah hubungan tdk langsung.
Lihat buku saya analisis multivariate dengan SPSS atau
AMOS5





TANYA:
Yth Prof Ghozali saya masih awam mengenai logistik
regression yang saya pelajari dari buku prof, mau
tanya :
1. Pada logistik regresion, untuk Multikolinearitas,
Heterokedastisitas, Autokorelasi, apakah di ujinya
sama dengan cara regresi biasa?
2. Saya mencoba mencari sensitifitas perusahaan pada
variabel ekonomi makro, yang diambil dari persamaan
regresi dengan variabel dependen kumulatif return
dan variabel independen ekonomi makro, yang nantinya
senstifitas ini saya masukan dalam persamaan
logistik regression bersama dengan variabel
keuangan, pertanyaan saya apakah benar pendapat saya
regresi berganda tersebut, tetap mengikuti tahap uji
Normalitas, Multikolinearitas, Heterokedastisitas,
Autokorelasi dll sesuai kelayakan regresi?

JAWAB:
Jika anda melakukan regresi berganda dengan estimasi
Ordinary Least Square (OLS), maka anda tunduk pada
asumsi klasik seperti autokorelasi, hetero, normalitas
error dan multikol. Oleh karena Logistec regression
tdk menggunakan estimasi OLS tetapi estimasi Maximum
LIkelihood maka tdk ada asumsi klasik, tetapi multikol
tetap diperlukan sedang lainnya tdk ada.

Logistec regression dilakukan jika variabel
dependennya (Y) kategori bangkrut/sehat, hidup/mati,
beli/tdk beli dst. Anda mau melakukan sensitivitas
variabel makro krn asalnya timeserie shng tdk cocok
dengan data cross section spt bvariabwel keuangan? Ya
silahkan saja.





TANYA:
apakah ada Third Order CFA, karena yang saya baca di buku pak Imam cmn
second order.

saya ada kasus dimana beberapa (>1) pertanyaan quesioner
(x1-x51)mengukur variabel laten(A1-A10).
sedangkan beberapa (>1) variabel laten (A1-A10) mengukur variabel
laten lain (B1-B5)

baru hubungan utama (B1-B5) yang ingin kita cari. kalau boleh saya
sebut dg istilah Third Order Confirmatory Analyst.

karena yang saya baca di buku pak ghozali ttg LISREL. hanya sd tingkat kedua.


JAWAB:
Kalau anda menggunakan covariane based SEM (Lisrel,
Amos), maka umumnya hanya sampai second order, untuk
membuat menjadi third atau fourth order sulit dan
cenderung unidentified (tdk bisa dirun), solusinya
anda hrs menggunakan variance based SEM (SmartPLS, PLS
Graph)anda bisa melakukanj higer order confirmatory.
Silahkan baca buku saya " Structrul Equation Modeling
Metode Alternatif dengan Partial Least Square (PLS)
disitu ada contoh artikel dengan fourth order







TANYA:
I need help, untuk kasus yang akan saya jelaskan dibawah ini, analisis yang
paling sesuai untuk diterapkan.

Dari data yang saya miliki, saya ingin buat suatu pemodelan (yang bisa jadi
prediktif model juga nantinya).

- variabel dependennya itu dikotomus (cust loyal dan tidak loyal)
- variabel independennya adalah profile dari responden (kebanyakan data
kategori juga)
a. Kota (5 kota besar)
b. SES (SES A, B , C dan DE)
c. Umur (Kelompok umur A, B , C dan D)
d. Jenis pekerjaan
e. Tingkat pendidikan
f. Status pernikahan

Objektif yang ingin saya dapatkan dari analisis ini yaitu:

Ingin mengetahui/identifikasi dari beberapa variabel independen yang
sebutkan di atas, variabel profile mana yang berpengaruh atau berkorelasi
lebih kuat terhadap grup yang loyal dan tidak loyal, sehingga user bisa
lebih memfokuskan kepada konsumen dengan profile tsb dan nantinya mempunyai
satu model yang digunakan untuk memprediksi akan masuk ke kelompok mana
suatu konsumen itu.

Sebelumnya saya run memakai Analisis Diskriminan (semua variabel independen,
saya buat menjadi variabel2 biner 0-1), tapi setelah saya baca beberapa
referensi, AD lebih cocok untuk kasus dengan variabel independen yang
datanya non kategori. Hasilnya memang cukup "make sense" tapi yang saya ragu
adalah apa model yang dihasilkan itu cukup reliabel atau tidak.


JAWAB:
Anda sebaiknya gunakan logistic regression. Analisis
diskriminan sdh banyak ditiggalkan dalam riset krn msh
menggunakan asusmi normalitas data, jumlah kategori
hrs sebanding, variabel hrs kontinyu (interval/ratio.
Logistic regression tdk meminta asumsi normalitas,
variabel dapat kontinyu atau kategori (dummy) pada
independennya, kategori sample tdk hrs sama.

Model menjadi probabilitas:

Prob (loyal)
Ln---------------= b0 + b1X1 + b2x2 +e
Prob (1- loyal)

Customer loyal diberi score 1
Customet tdl loyal diberi score 0

Hipoptesisnya : X1 mempepengaruhi probabilitas konsumen loyal

Lebih lanjut lihat buku saya Analisis Multivariate dengan SPSS ed 4 atau Analisis Multivariate Lanjutan Ed1



TANYA:
Terima kasih untuk penjelasannya.

Yang Prof maksudkan nilai koefisien jalur harus
signifikan adalah mencapai (minimal) positif mantap
? Soalnya istilah signifikan mengandung arti apakah
hasil penelitian dapat diberlakukan terhadap
populasi.

Saya baca juga d buku Prof biar pinteran dikit.

JAWAB:
Maksud signifikan adalah nilai koefisien parameter
jalur hrs secara statistik tdk bedea dengan nol atau
signifikan pada 1% atau 5%. Walaupun anda menggunakan
populasi tetap saja signifikansi diperlukan.







TANYA:
Mohon bantuannya,,,
Saya ingin meneliti variabel-variabel yang
mempengaruhi suatu daerah bisa terlepas dari status
daerah tertinggal.

Y=1 , untuk daerah tidak tertinggal
Y=0 , untuk daerah tertinggal

dan X adalah berbagai sumber daya yang dimiliki
daerah, terdiri dari sumberdaya alam, sumberdayam
manusia, sumberdaya ekonomi, sumberdaya sosial,
sumberdaya fisik, dan sumberdaya aparatur
pemerintah.

sebelum masuk ke regresi logistik,,,saya
menggunakan analisis faktor untuk mereduksi
variabel-variabel yang menyusun masing-masing
sumberdaya. sehingga saya masuk ke regresi logistik
dengan menggunakan score faktor.

apa langkah saya itu benar??? Klo salah,,,tolong
diberi masukan..

JAWAB:
Berarti variabel X anda belum jelas secara teori dan
variabel X akan anda ukur dengan indikator. Krn dengan
sekian banyak indikator pengukur sumberdaya akan ada
lihat pengelompokkaanya lewat analisis faktor.

Saya kira anda bisa lakukan seperti itu dan model
dengan binary logistic sdh pas, tetapi kategori
variabel Y bisa lebih dari dua misal daerah
tertinggal, setengah tertinggal dan tidak tertinggal.
kalau sepertri ini anda menggunakan ordinal atau
multinominal logistic regression silahkan baca buku
saya analisis multivariate lanjutan









TANYA:
pak, apa maksud dari variabel2 kita tidak definitr
positif dalm analisis faktor???? lalu bagaimana cara
mengatasinya?????

lalu apa juga maksud terdapat redundancies pada
data kita dalam regresi logistik dan bagaimana
mengatasinya???


JAWAB:
Untuk dapat menggunakan analisis faktor ada dua uji yg
hars dipenuhi bahwa nilai KMO hrs tdk signifikan dan
nilai Bartlett's test hrs signifikan.

Jika nilai KMO signifikan pada 5%, maka anda lihat
nilai anti-image correlation jika ada variabel dengan
korelasi terkecil maka didrop. (lihat buku saya hal
270)

Variabel tdk definit poisitif berarti data anda yg
jelek yaitu tdk normal, sample size kecil dll











TANYA:
pak., saya mau nanya dimana saya bisa memperoleh
buku bapak karena di Banda Aceh buku tersebut sangat
sulit ditemukan..
apakah bisa saya pesan memalui bapak., kalau bisa
harga berapa ????

trus apakah buku bapak mengandung semua cara metode
penelitian dan cara2 penyelesaiannya??
terima kasih

JAWAB:
Ada beberapa buku yg saya tulis antara lain:

1. Analisis Multivariate dengan SPSS harga Rp 70.000
2. Analisis Multivariate lanjutan Rp 60.000,-
3. Statistik Non-parametrik Rp 60.000,-
4. Model Persamaan Struktural dengan AMOS 5 Rp 60.000
5. Structural Equation Modeling dengan Lisrel Rp
70.000
6. Structural Equation Modeling dengan PLS Rp 60.000
7. Manajemen Risiko Perbankan Rp 60.000
8. Akuntansi Keperilakuan Rp 60.000
9. Teori Akuntansi Rp 70.000

Buku yang mana yg anda cari dan tolong berikan alamat
kirim anda, nanti buku saya kirim dari semarang dan
anda tinggal transfer uang harga buku plus ongkos
kirim










TANYA:
Saya punya perbedaan pendapat dg rekan saya
mengenai cara uji
validitas dan reliabilitas jika kita mempunyai (
misalnya)4 variabel
dan butir pertanyaan masing2 variabel adlh 5 butir
( sehingga total 4 x
5 = 20 pertanyaan ). Untuk menguji valid dan relia
saya olah dg spss dg cara per variabel diujivalid dan reliabilitas namun rekan saya berpendapat bisa langsung semua total dari variabel tsb. Dia beralasan ada jurnal yg menggunakan metode tsb karena secara kebetulan ada satu variabel yg hanya mempunyai satu butir pertanyaaan dan ternyata valid dan reliabel. Yg ingin saya tanyakan apakah ada buku referensi yg menjelaskan hal ini?utk uji valid dan reliabel harus pervariabel atau bisa langsung secara total ?

JAWAB:
Pertanyaan anda ini menyangkut dua hal yaitu
KOnfirmatori Faktor atau exploratory faktor Analisis.
Pada konfirmatori secara teori anda sdh yakin bahwa
indikator-indikator memang membentuk variabel laten
shg kita ingin menguji atau mengkonfirmatori apakah
indikator tsb benar membentuk variabel latennya.
Tetapi kalau kita tidak tahu indikator-indikator yg
ada bisa juga menjadi indikator pada variabel laten
lainnya, maka kita bersifat ex-ploratoti untuk
mennetukan indikator-indikator yg membentuk variabel
laten.













TANYA:
Salam,sebelumnya saya sedang mendalami tentang
penggunaan SPSS.Sebenarnya saya belum mengerti
dengan benar mengenai pengujian data dengan metoda
Validitas dan Reliabilitas pada SPSS perihal
langkah-langkah eksplisit yang digunakan pada
program tersebut.Apabila ada yang berkenan untuk
memberikan sebuah contoh langkah-langkah
penghitungan menggunakan product moment dan alpha
cronbach dengan program SPSS dalam mengolah suatu
data kuesioner.Apabila ada link situs atau ebook
yang bisa didownload cuma2, tolong saya
diberitahu.Sekali lagi,mohon pencerahan untuk
saya...sekiranya petunjuk yang diberikan sangat
berguna untuk studi saya.Terimakasih atas perhatian
dan waktunya.

JAWAB:
Silahkan baca buku saya ada contoh lengkap menghitung
cronbach alpha (uji reliabilitas) dan uji validitas
dengan person correlation dan analisis faktor. Buku
saya Analisis Multivariate dengan SPSS














TANYA:
Yth. Prof. Dr. Imam Ghozali, M.Com, Akt
Nama saya Pandu Winata. Saya seorang mahasiswa
ingin bertanya
tentang SEM dengan PLS (mohon dijawab).
1.) Dalam buku bapak disebut bahwa tujuan PLS
adalah prediksi. apa
maksudnya dan apa yang diprediksi.?
2.) Kenapa PLS tidak mengasumsikan data
berdistribusi tertentu,
sedangkan SEM (LISREL) mengasumsikan data
berdistribusi normal.?
3.) Apa pengertian weight relation?
4.) Dalam SmartPLS, Algorithm Settings (data
metric) memberikan
pilihan standardized (mean 0, variance 1) atau
original.Dan
pada weighting scheme ada 3 pilihan yaitu centroid,
factor, dan
path. Dalam keadaan bagaimana kita harus menggunakan
standardized
dan original, serta weighting scheme yang mana yang
harus digunakan?
5.) Apabila kita mempunyai variabel laten dengan
variabel manifes
yang diukur dengan kategorik (ordinal): 1=lebih
buruk, 2=sama buruk,
3=sama baik, 4=lebih baik. contoh: kita membentuk 3
variabel laten,
misal salah satu variabel laten tersebut adalah
perkembangan usaha
tani dengan variabel manifes: keadaan sumber air,
kemudahan
memperoleh benih, pupuk, obat-obatan, tenaga kerja,
alat pertanian,
gangguan hama dan penyakit, produktivitas lahan, dan
kemudahan
pemasaran hasil produksi, yang semua variabel
manifes tersebut
diukur dengan kategorik diatas. Data metric yang
mana yang harus
digunakan, apakah standardized (mean 0, variance 1)
atau original,
serta weighting scheme yang mana yang harus
digunakan?
6.) Apa arti dari nilai loading sebesar 0,439.
Kenapa nilai
loading bisa lebih dari satu?

JAWAB:
Pada dasarnya model struktural berasumsi bahwa anda
punya model yg dikembangkan berdasarkan teori dan
model tsb akan diuji (dikonfirmatori) apakah cocok
dengan data empirisnya (jadi berdasarkan sample
covariance matrik anda mau mengkonfimarkan model
teoritiknya. Jadi sebaiknya untuk menguji SEM harus
menggunakan covariance SEM (Amos, Lisrel atau EQS),
namun demikian data empiris kita kadang kala tdk mampu
menjawab hal ini (krn data yg sedikit, terdistribusi
tdk normal, ada multikol dstnya) pokonya data yang ada
tdk dapat digankan mengkonfirmasi model. Dalam keadaan
seprti ini dan dengan data yg apa adanya anda terpaksa
hrs menggunakan PLS, tetapi PLS tdk berpretensi inging
menjawab model, hanya dengan data yg ada mencoba
memprediksi hubungan seperti apa yg ada pada model
jadi lebih bersifat prediktif (inilah kelemahan PLS)

PLS datanya bisa apa saja nominal, ordinal atau
kategori (shng sering disebut soft modeling)sedangkan
Covariance SEM data hrs berwujud kontnyus atau
interval (disebut hard modeling. Jadi PLS bersifat
non-paramerik

Didalam SEM yg harus digunakan adalah nilai koefisien
standardized (tanpa konstanta)mengapa krn kita ingin
membandingkan antar jalur /path yg ada sehingga hrs
menggunakan nilaio standardized (di PLS dengan pilihan
mean=0 dan variance=1)

Nilai loading 0.439 berarti sumbangan indikator
terhadap nilai laten variabelnya sebesar 43.9% (jadi
menurut PLS nilai loading factor hrs minimal 0.70
kurang dari ini hrs didrop indikatornya)

Nilai loading factor bisa lebih dari 1 kalau anda tdk
menggunakan nilai standrdized (jadi dengan mean=0 dan
variance =1 tdk mungkin nilai loadingh lebih dari
satu)















TANYA:
alo tmn2, perkenalkan nm sy jimmy. mhs di yogya. sy
sedang penelitian
tgs akhir dgn topik "Pro-Social Consumer Influence
Strategy" yg diambl
dr jurnal of marketing. di jurnal tsb penelitiannya
menggunakan
program LISREL. sy sendiri ud slese sebarin
kuesioner, kini tinggal
olah data dari 100 responden. nah, mslhnya sy krg
paham ttg statistik,
apalagi LISREL. apakah tmn2 d forum ini ad praktisi
LISREL yg
berdomisili d yogya? ato tau info tempat untuk
belajar LISREL d jogja?
sgt diharapkan bantuan dan infonya. lbh bgs lg ad
almt dan no yg bs
dihubungi. sy bth sesegera mgkn. sy bnr2 mentok
nih.. plizz help me..

JAWAB:
Anda dapat menghubungi Admin blog ini, Klik KONTAK KAMI di bawah HOME

















TANYA:
Saya baru belajar SEM, namun ada ketentuan SEM yang
saya belum mendapatkan jawabannya:
Mengapa dalam Amos atau SEM, sampel yang dibutuhkan
mencapai 100 sampel atau 5 kali jumlah variabel
indikatornya. Alasan "filosofis" atau alasan
matematis
yang mendasari pengambilan sampel minimum 100 itu
apa?
Apabila sampel di bawah seratus,kemungkinan apa yang
akan terjadi?

JAWAB:
Jumlah sample 5 kali jml variabel itu pedoman yg
dibuat oleh Hair. Sesungguhnya bukan itu, ttp
tergantung dari metode estimasi yg anda gunakan. By
default SEM AMOS menggunakan estimasi Maximum
Likelihood (ML) dimana ML menghendaki sampel paling
sedikit sekitar 100 s/d 200 spy menghasilkan model yg
stabil, kelemahan ML menjadi sangat sensitif jika
sample 400-500 dan menghasilkan indek fit yg buruk.
Jika data anda menyalahi asumsi normalitas anda bisa
run dengan estimasi distribution free tetapi minimal
data yg diperlukan diatas 1000. Oleh sebab itu jika
anda menggunakan SEM maka sample 200 hrs dipenuhi jika
kurang dari 100 ya sebaiknya pakai alternatif SEM
dengan Partial Least Square (PLS) baca buku saya
Lisrel 8.54 hal 36 dan buku SEM PLS
















TANYA:
Hallo..temen2X sekalian..
Saya mau tanya tentang analisis regresi data panel
nich..
Ada yang bs bantuin gak?

1. Anareg data panel tuch perlu uji assumsi klasik
gak Sich?
(ex:normalitas, multikol, autokol..dll), soalnya
saya pernah dapat
refrensi kalo itu gak perlu karena estimasinya tar
tergantung pada
struktur variance covariance residualnya..

2.Model yang saya pake adalah fixed effects
model..gimana caranya kalo
saya mau menganalisis ke masing2 unit cross
sectionnya?cara
interpretasiin intersepnya gimana?

3. Software yang saya pake eviews5, series saya enam
tahun sedangkan
unit cross-section saya ada 26, trus kalo saya mau
olah dengan assumsi
ada heteroskedastik SUR..gak bisa di RUn..kenapa ya?
Apa emang gitu
syaratnya? kalo ada yang punya teorinya...tolong
kasih tahu
dong!!penting bangets nich

JAWAB:
anda bisa baca ekonometrics tulisan Gujarati atau baca
buku saya Analisis Multivariate Lanjutan (sy
menggunakan software SPSS. Interpretasi Panel data
bisa kita menganggap Crossection dan time serie
konstan, time serinya tdk konstan, crosectionnya tdk
konstan atau keduanya tdk kosntan. Ini semua
menimbulkan konsekuensi modeling menjadi berbeda
dengan dummy variabel untuk time serie atau
cr9ossection jika tdk konstan.


TANYA:
salam kenal dari saya "Yo", mahasiswa STIS Jakarta.
saya sekarang
sedang menyusun skripsi tentang Laba Bank Syariah
yang dipengaruhi
oleh komposisi pembiayaan. di mana komposisi
pembiayaan tersebut
terdiri dari Mudharabah dan Musyarakah (bersifat
bagi hasil),
Murabahah (bersifat jual beli), Istishna dan
Pembiayaan Lainnya.
Adapun metode analisis yang saya pakai adalah
granger causality untuk
mengetahui hubungan sebab akibat yang terjadi antara
Laba dengan
komposisi pembiayaan. dilanjutkan dengan Kointegrasi
Johansen untuk
menggambarkan hubungan jangka panjang antara Laba
dan Komposisi
Pembiayaan serta dilanjutkan dengan Uji ECM (Error
Correction Model)
untuk mengetahui hubungan jangka pendek serta speed
adjustment dari
variabel dependen yaitu Laba setelah adanya
gangguan.

pertanyaan saya yaitu, dalam menggunakan analisis
kointegrasi syarat
apakah yang harus dipenuhi? karena menurut Widarjono
(2001)
kointegrasi mensyaratkan data yang stasioner pada
level yang sama I
(1) tetapi tidak stasioner pada level. akan tetapi
menurut literatur
lain, syarat penerapan kointegrasi adalah data
observasi harus
mengandung unsur siklus yang merupakan gambaran
sifat data yang
mempunyai series cukup panjang.

sedangkan series data saya 72 observasi yang
merupakan data bulanan
dari 2001-2006 sehingga tidak dapat diterapkan
analisis
kointegrasi/hubungan jangka panjang. apakah
memang benar syarat kointegrasi bahwa data harus
mengandung unsur
siklus? atau hanya mensyaratkan variabel-variabel
observasi yang
stasioner pada level yang sama I (1)?Atas perhatian
dan bantuannya
disampaikan banyak terima kasih

JAWAB:
Baca buku Gujarati Econometrics atau buku saya
Analisis Multivariate Lanjutan (ada contoh uji
koinetgrasi dan error correction model dengan SPSS)




TANYA:
Terima kasih atas infonya..Bebrapa buku yang
disebutkan diatas pernah
saya baca (seperti Greene, Gujarati dan pyndick..
kalo baltagi belum
pernah ketemu, dimana saya bisa menemukannya?mungkin
ada yang bisa
bantu saya, dimana tempat saya bisa menemuka buku
baltagi)..namun dari
semua buku2 itu saya agak kesulitan untuk memahami
dan
mengaplikasikannya, karena terlalu teoritis (rumus2
matematiknya
ribet), sehingga saya agak sulit untuk menghubungkan
teori2 tersebut
dengan topik tulisan yang sedang saya tulis...

JAWAB:
Buku Baltagi dapat diperoleh secara gratis lewat free
e-books dengan alamat gigapedia.org (anda hrs register
lebih dahulu) disini ada ribuan buku text book gratis
baik ekonomi bisnis statistik dan ilmu-ilmu yg lain



TANYA:
1. Apa assumsi yang harus kita buat untuk menganggap
bahwa suatu model
data panel (fixed effect model) interceptnya konstan
pada
cross-section atau konstan time seriesnya?
2. dalam model fixed effect, slope dapat dianggap
sama atau berbeda
untuk semua cross sectionnya. Apa assumsi yang harus
dibuat untuk
memenuhi kedua assumsi tersebut? (slope sama untuk
semua cross section
atau berbeda)
3. Dimana saya bisa mendapatkan buku Analisis
Multivariate Lanjutan
(karangan imam ghozali yang membahas data panel)?

JAWAB:
dalam data panel anda menggunakan data gabungan antara
crossection misal persh go public dan data time series
misal th pengamatan. Jika anda berasumsi bahwa antara
pengamatan persh konstan dan antar waktu pengamatan
(anta th dianggap tetap tdk ada gejolak), maka anda
dpt berinterpretasi spt regresi biasa. Jadi dengan
asumsi ini akan ada 5 kemungkinan spt:
1. i9ntercept dan slope koefisien konstan sepanjang
waktu
2. koefisien slope konstan, ttp intercept bervariasi
sepanjang waktu
3.Koefisien slope konstan, ttp intercept bervariasi
sepanjang waktu
4. Semua koefisien (baik inrecept maupun koefisien
slope bervariasi sepanmjang waktu
5. Intercep dan koefisien slope bervariasi untuk
setiap individu dan waktu.

Secara teori anda dapat membaca buku Econometrics oleh
Gujarati dan contoh aplikasi dengan SPSS lihat buku
saya Analisis Multivariate Lanjutan. Kalau anda
kesulitan mencari bukunya, tolong kirim alamat anda
nanti langsung saya kirimkan dari semarang




TANYA:
Menurut Pak Imam apa penyebab nilai error nilai
loading factornya, sehingga variance extractnya
kurang dari 0,50
Maksudnya di Drop apa Pak? Saya belum tahu istilah
tersebut...

JAWAB:
Coba anda lihat ada indikator dengan niali loading
dibawah 0.50, kalau ada berarti indikator ini tdk
valid dan menyebabkan AVE rendah. indikator yg tdk
valid dibuang dari model



TANYA:
Pak Imam, saya mau tanya tentang penelitian saya.
apabila suatu variabel endogen lolos uji construct
realibility tetapi tidak lolos uji variance extract
bagaimana? karena nilai variance extractnya 0,44
(44%)...
uji confirmatory sudah lolos juga, tetapi nilai
goodness fit-nya marginal.. bagaimana penilaian Anda
bila suatu model tidak sesuai dengan cut off
goodness fit of index nya...
truz menurut anda apa penyebab nilai error
measurement (variabel laten) lebih besar dari nilai
loading factornya...

JAWAB:
Variance extracted menguji validitas, jadi jika AVE
<0 data-blogger-escaped-.5="" style="font-weight: bold;">TANYA:
Saya sedang belajar SEM sendiri lewat buku Bapak
dengan software
LISREL. Saya masih sangat awam dalam hal ini.

Ada yang yang ingin saya tanyakan: kalau saya
membuat model sederhana
dua variabel, yang masing-masing memiliki beberapa
dimensi. Misalnya
pengaruh partisipasi dengan komitmen. Partisipasi
sendiri terdiri dari
3 dimensi, yang masing-masing dimensi terdiri atas 4
pertanyaan.
Demikian pula komitmen, terdiri 3 dimensi, yang
masing-masing 3
pertanyaan. Kemudian saya membuat analisis second
order CFA untuk
masing-masing variabel tersebut. Yang ingin saya
tanyakan: bagaimana
saya membuat hubungan keduanya karena kalau
sintax-nya saya gabung kok
saya selalu mengalami error atau bisakah second
order CFA dan
relationship kedua variabel itu digabung?


JAWAB:
Masing-masing second order construct harus diuji
konfirmatori lebih dahulu apakah mereka sebenarnya
multi dimensi atau unidimensi(langsung indikator tanpa
dimensi). Jika semua adalah dengan dimensi dan
menghubungkan antar konstruk dengan dimensi dalam
lisrel memang sulit ada kecenderungan menjadi tdk
konvergen atau tdk identified shg tdk keluar hasilnya.
Solusinya anda hrs membuat konstrain tertentu supaya
menjadi identified (apakah variance disamakan nilainya
untuk masing-masing dimensi.



TANYA:
Saya tentang belajar tentang Item Response Theory. Adakah teman2 yg lumayan mengerti tentang ini? Buku apa sajakah yg mudah untuk dipelajari? Kemudian software apa sajakah yang dapat digunakan untuk melakukan IRT serta dimana saya bisa memperolehnya? Terima kasih


JAWAB:
Mas Ngadiman, saya punya beberapa Buku dan CD IRT, dari yang basic hingga intermediate, software yang terjangkau sih dan canggih winsteps (US$ 99 full download), coba aja download yang versi studentnya dulu, updatenya lumayan.

kalo duitnya agak kenceng bisa beli MultiLOG, GUMM, atau yang CAT (Computer Adaptive Testing) sekalian aja --- yang ini gw belum punya sponsor utk melakukan risetnya.

kalo di Australia bukannya basisnya David Andrich (pakarnya GUMM) dan Mike Linacre (pakarnya Winsteps) ada dibenua itu juga kalo perlu emailnya ntar aku kirim....Kan sekarang mumpung lagi disono.



TANYA:
Begini, saya sekarang sedang mengadakan penelitian di BEJ
Variabel penelitian ada 3 (2 var X, dan 1 var Y)
Periode data 4 tahun (2002-2005)
Populasi 150 perusahaan, dan sampelnya 38 perusahaan

Ditanya :

1. Apakah penelitian saya bisa dilakukan dengan POOLING DATA?
2. Apa yang dimaksud dengan POOLING DATA?
(Pemahaman saya, KOREKSI JIKA SALAH)

Mis: Var RES 2002 2003 2004 2005
X 1 --0,3 -- 0,6 -- 0,2 -- 0,8--
2 0,2 0,3 0,1 0,3
3 0,2 0,3 0,1 0,3
4 0,2 0,3 0,1 0,3
5 0,2 0,3 0,1 0,3
dst

Apakah pada POOLING DATA, data tersebut DIJUMLAHKAN ( x res1 tahun
2002+2003+2004+2005) dan DIAMBIL RATA-RATAnya? Kemudian nilai rata-
rata tersebut digunakan sebagai NILAI X untuk responden 1 yang di
RUN?

Atau :
datanya diurutkan pertahun? akan tetapi kalau diurutkan n nya
menjadi bertambah ( 38 x 5 = 190) dan tidak cocok lagi dengan n
penelitian (sebanyak 38)


3. Apakah saya harus menguji normalitas, validitas, reliabilitas,
asumsi klasik, sebelum menganalisa data saya?

4. Kalau datanya tidak normal, dan sudah ditransformasi masih tidak
normal, apakah data saya masih bisa dilanjutkan

JAWAB:
Lihat buku saya analisis multivariate lanjutan ada bab khusus membahas data panel atau pooling data




TANYA:
Saya sudah download Winsteps versi student..tapi cuman dibatasin 25 item dan 75 subyek. Padahal data saya tuh large scale assessment. Oh iya saya cek udah naik tuh US$149. Itu software buat Rasch model yah?
Wah kalo beli yg mahal2 ga sanggup dech kang..kecuali ada yg sponsorin ^_^. Maklum skrg jadi student lagi. Btw kok tau saya ada di sini ? Boleh dah kang, japri aja emailnya....Thx yah

JAWAB:
kalo mau pake winstep ntar aku kirim ftpnya download gratisnya pake account saya saja, kalo untuk sesama mahasiswa kan boleh...he...he...he (tanya aja ama Linacre)..via japri aja yach. Halo.... bukankah IRT itu dasarnya Rasch model tergantung jumlah parameternya nanti akan muncul dichotomous dan polytomous serta sakajima models.




TANYA:
Didalam buku Prof. Imam (SEM- Metode alternatif dg PLS), sebelum meng-calculate model (RUN), sebelumnya ada setting yang harus dipilih.

1. Algorithm setting, ada bbrp setting yg dpt dipilih
Data metric = standardized atau original

2. Weighting scheme = centroid, factor dan path.

tetapi lebih lanjut tdk ada penjelasan mengenai masing2 pilihan setting td.
mohon dijelaskan pada kondisi seperti apa masing2 pilihan td digunakan (karena masing2 pilihan, outputnya berbeda)

JAWAB:
Pada data pilih standardized (hasil-nya nanti dalam standardidized), krn SEM menggunakan output standardized untuk interpretasi. Sedang weighting umumnya digunakana path



TANYA:
1. Berapa nilai minimum loading faktor untuk eliminasi / drop indikator
dari model ? apaka di bawah 0,4 atau 0,5 ?
2. Apa kita bisa menetapkan sendiri nilai minimum loading faktor ?

JAWAB:
Beberapa peneliti meminta nilai convergen validity = 0.70, dibawah nilai ini dianggap tdk valid hrs di drop. tetapi buku hair menyebut angka 50%-60% masih ok. Jadi di bawah 0.50 hrd didrop. Jika model anda baik maka sebaiknya nilai loading harus di atas 0.70



TANYA:
Prof, saya meneliti tentang sepeda motor dgn 7 hiptesis dan setelah
diolah dg LISREL 8.7 terdapat 4 hipotesis yg Ho nya diterima. Yang
menjadi pertanyaannya adalah adakah buku yg menjelaskan bahwa sebuah
penelitian diperbolehkan Ho diterima ? setelah saya konsultasi dg
dosen pembimbing saya , beliau bilang sebenarnya Ho diterima tidak
apa2 asal cara olah data sudah benar dan bisa didukung dg fakta-fakta
yg ada tetapi menurut beliau ada salah satu dosen penguji ( yg nanti
menguji di sidang ) mempunyai madzab bhw sebuah penelitian jika Ho
nya diterima maka buat apa diteliti ? untuk itu dosen pembimbing saya
menyarankan untuk sebanyak mungkin mencari argument yg menguatkan
bahwa "Ho diterima "tidak masalah. Berikut saya sampaikan kesimpulan
hipotesis tsb. Terima kasih atas bantuannya.
1.Ho diterima :Tidak terdapat pengaruh yang signifikan antara
asosiasi merek terhadap kepuasan.
2. Ho ditolak:Terdapat pengaruh yang signifikan antara nilai produk
terhadap kepuasan konsumen.
3. Ho ditolak:Terdapat pengaruh yang signifikan antara kualitas
pelayanan terhadap kepuasan konsumen.
4. Ho ditolak :Terdapat pengaruh yang signifikan antara kepuasan
terhadap loyalitas konsumen.
5. Ho diterima :Tidak terdapat pengaruh yang signifikan antara
asosiasi merek terhadap loyalitas
6. Ho diterima:Tidak terdapat pengaruh yang signifikan antara nilai
produk terhadap loyalitas konsumen.
7. Ho diterima :Tidak terdapat pengaruh yang signifikan antara
kualitas pelayanan terhadap loyalitas konsumen.

JAWAB:
Jika ho tidak dapat ditolak (alias diterima) ya tdk masalah, yg penting anda dapat menjelaskan mengapa bisa demikian. Bisa jadi karena faktor lain penyebabnya seperti budaya, lingkungan yg berbeda dstnya. Penting anda mencari penjelasan secara rasional.




TANYA:
kawan2, saya mau nanya mengenai nilai determinant of
sample covariance
matrix untuk uji multikolineritas. apakah kalo nilai
determinant of
sample covariance matrix hanya sebesar 0.323 bisa
diterima untuk uji multikolineritas ?

JAWAB:
Kriterianya nilai determinant of sample covariance hrs
positif berapaun nilainya. Jika nilainya sama dengan
nol atau negative maka mengindiksaikan ada multikol
atau tidak linear




TANYA:
Mohon bantuannya untuk pertanyaan berikut ini:

1. Untuk mengetahui path coefficient pada model
penelitian yang memiliki 3 variabel (yang ada
interveningnya), seperti dibuku Bapak, path
coefficient dapat diketahui dengan menjadikan
intervening variabel sebagai independent variabel
ke2 ? Namun ketika dihitung demikian, hasil path
coefficient nya ada yang lebih dari 1 (1.46). Apakah
ada kesalahan karena nilainya lebih dari 1 ?

2. Apakah salah jika path coefficient dihitung
dengan melihat coefficient beta dengan regression
dari bivariate correlation ?

JAWAB:
Nilai path yang dihitung adalah nilai koefisien
standardized (nilai unstandarsiezd bisa saja lebih
dari satu), tetapi untuk standardized hrs kurang dari
satu. Jika ada nilainya lebih dari satu maka terjadi
heywood case yaitu nilai error variancenya menjadi
negatif dan tdk mungkin krn error variance tdk bisa
negatif (krn nilai kuadrat)





TANYA:
Pak Imam, jika kita menggunakan composite indicator
apa yang harus kita lakukan terhadap
indikator-indikator yang kita gabungkan (composite)
tersebut??apakah kita jumlah lalu
dirata-ratakan??atau mungkin ada metode lain??

Kemudian dalam pernyataan sintaks,apakah berarti
variabel hasil composite tersebut dianggap menjadi
observed variable (bukan lagi latent varbl)??

JAWAB:
Bagi rekan-rekan yang akan menggunakan analisis SEM
tetapi data tidak mencukupi, maka solusi yang dapat
dilakukan adalah dengan membuat komposit indikator.
Berikut ini saya attach file sebagian dari bab di buku
saya (buku revisi segera terbit)cara membuat indikator
komposit dengan menggunakan program AMOS 16. Bagi yang
ingin mendapatkan cara menghitungnya dengan excel
silahkan kirim email ke saya







TANYA:
1. Apakah Biplot bisa digunakan untuk data
non-metrik?
2. Untuk data non-metrik, mana yang lebih baik
analisis korespondensi atau MDS?

JAWAB:
Data non-metrik dapat berupa data kategorikal atau
juga data ordinal (preferensi). Alat analisis yang
digunakan tergantung dari tujuan penelitian anda. Jika
data kategorikal dapat menggunakan uji chi-square
untuk asosiasi atau dapat juga dengan model loglinear.
Begitu juga dengan data ordinal gunakan alat analisis
non-parametrik statistik (baca buku saya statistik
non-parametrik dengan SPSS)








TANYA:
saya mau nanya mengenai nilai determinant of sample
covariance
matrix untuk uji multikolineritas. Software yang
saya gunakan adalah
AMOS 5. Apakah kalau nilai determinant of
sample covariance matrix hanya sebesar 0.323 bisa
diterima untuk uji
multikolineritas ?

JAWAB:
Saya membaca banyak buku SEM, ttp tdk ada yang menguji
multikol d atau singularitas bahkan yg menyebutkan
ujinya dengan melihat nilai determinant of sample
covariance. Setelah saya lacak sumbernya dari mana,
ternyata berasal dari buku Using Multivariate edisi 3
karangan Tabachnick. Dia menyatakan bahwa dalam SEM
tdk boelh ada singularitas atau multikol krn akan
mengakibatkan matrix caovariance menjadi singular dan
tdk bisa dirun. Tabachnick mengatakan hal ini dapat
dideteksi dengan melihat nilai determinant of sample
covariance, jika nilianya sangat ekstrim rendah, maka
ada indikasi singularitas. (tdk disebutkan rendah itu
berapa, lalu ada yang menterjemahkan rendah itu kalau
mendekati nol). Silahkan baca sumber aslinya.





TANYA:
Mohon info untuk urutan analisis data, setelah data diuji validitas
dan reliabilitasnya langkah berikutnya apa data tersebut langsung
diregresi atau di lakukan uji asumsi klasik, jadi regres dahulu atau
uji asumsi klasik dahulu.

JAWAB:
Uji asumsi klasik dilakukan pada error-nya, jadi di regresi dulu kemudian
keluarkan saja nilai dugaan (predicted) dan error-nya, kmd uji normalitas dan
uji acak pada error yang dihasilkan tersebut.




TANYA:
Yth. Prof. Ghozali
sy sdg susun tesis dg analisis moderated SEM. Acuan
saya buku SEM
(teori, konsep dan aplikasi) dengan program LISREL
8.54 yang prof susun.
namun saya masih belum bisa mengaplikasikan dengan
data yang saya
miliki.
yang saya tanyakan :
1. Pada hal 254 (rumus parameter) Uji moderating
pada SEM tahap
pertama: observed variables VARINT didapat darimana
? karena di data
covarian matrixnya tidak ada?
2. Pada hal 254 (rumus parameter) Uji moderating
pada SEM tahap kedua
metode Ping (1995): observed variables VARINT dan
latent variables
MODERATING didapat darimana ?
3. Mohon dikirim file data mentah yang dipake dalam
contoh 1 tersebut
(D:\ping 1995\data.txt) sebagai bahan saya
mempelajari dan menelusuri
data tersebut.

JAWAB:
Mohonm maaf baru bisa jawab sekarang karn saya luar
kota lama, liburan terus tanggalnya. Di buku saya
memang ada kekeliruan data. Coba diexcell anda
tamabhkan satu kolom baru Variant dan isinya adalah
perkalian antar indikator pembentuk variabel
moderating.
Silahkan di coba





TANYA:
Terima kasih, saran bapak tentang MSEM sudah bisa
saya aplikasikan. Saya baru pertama kali mengenal
SEM dari Buku Bapak dan langsung saya aplikasikan
untuk penyusunan tesis.
Ada yang perlu saya tanyakan lagi:

terhadap data yg tidak normal sebaiknya dilakukan
normal score atau pengujian dengan koreksi
asymptotic covarian matrix. Karena hasil analisis
data antara normal score dengan koreksi asymptotic
covarian matrix berbeda.
kasus yang saya alami, hasil analisis MSEM
menunjukan model tidak fit, dari modification
indeces menganjurkan adanya korelasi antara
variabel-variabel yang membentuk variebel laten
interaksi, padahal dengan metode Ping menetapkan
variabel2 yang membentuk variabel interaksi nilai
korelasinya NOL. (kasus mirip buku Bapak SEM dengan
Lisrel 8.54 Hal 271)
berkenaan kasus diatas, Apa yang harus dilakukan
apakah melakukan modifikasi seperti yang dianjurkan
modification indeces atau membiarkan model dalam
keadaan tidak fit atau bagaimana?

JAWAB:
Jangan mengejar model hrs fit dengan nilai GFI, AGFI,
TLI dst di atas 90%. Kalau model anda tdk dapat
mencapai angka itu misal hanya 80% ya tdk masalah krn
memang model hanya mampu menejelaskan sebesar itu
(Hair menyebut nilai di bawah 90% marginal sedang di
atas 90% good). Intinya semua ukuran goodness-fit
menyatakan kalau mendekati 0 poor fit dan jika
mendekati satu perfect fit, jadi tdk ada yang
mengharuskan 90%, nanti lalu direkayasi atau dibuat
modifikasi dengan mengkovariankans semua errror dan
model menjadi seperti benag kusut tetapi tdk dapat
dijelaskan secara teoritis. Jadi kalau akan melakukan
modifikasi, maka hraus dapat dijelaskan secara
teoritis.






TANYA:
Saya mu tanya

Saya punya data seperti ini



jumlah penduduk kecamatan di Bandung yang buta huruf (misalnya) ada
sebanyak 35000 orang

saya hitung persentase nya terhadap jumlah total penduduk kota bandung
menjadi (misalnya) 8%.

Yang saya ingin tanyakan adalah 8% itu skala pengukuranyya apa ya?

Nominal/ordinal/interval/rasio???



agak bingung aja, dosen saya bilang itu masih berskala nominal karena
angka 8% = buta huruf dan 92% = tidak buta huruf.


JAWAB:
Kalau pengamatannya dari tiap individu(penduduk) maka jelas itu nominal (buta
huruf atau tidak). Tetapi jika yang ditanyakan indikator angka buta huruf di
salah satu kec. di Bandung itu Rasio, kan yang menjadi konsern kita kan jumlah
penduduk buta huruh (Rasio) dan jumlah penduduk bandung (rasio) juga.







TANYA:
saya ingin bertanya :
1.apakah analisis jalur merupakan bagian dari SEM
atao terpisah dari SEM?
2.kalau terpisah apa perbedaan SEM dan analisis
jalur ?

JAWAB:
Pada analisis dengan SEM ada dua jenis variabel yang
digunakan yaitu variabel observe (manifest) dan
variabel unobserve (laten atau konstruk. Variabel
observe adalah variabel yg dapat diukur secara
langsung misalnya variabel inflasi diukur dengan indek
harga konsumen, kinerja diukur dengan ROA, sedangkan
variabel laten htrs diukur dengan indikator (kuesioner
atau pertanyaan. JIka model anda semuanya variabel
observed, maka disebut analisis jalur (regresi biasa),
tetapi jika variabel anda laten, maka regresi tdk
dapat menyelesaikan hal ini dan model ini disebut
dengan model struktural (diuji dengan analisis faktor
dahulu baru uji sem)


Numpang nimbrung. apabila variable laten hanya diterangkan oleh dirinya sendiri maka bisa digunakan analisis jalur akan tetapi apabila variable laten membutuhkan variable manifest untuk menerangkannya maka digunakan SEM. selengkapnya perbedaan antara analsis jalur dengan SEM bisa dibaca lengkap pada buku LISREL karya sitinjak dan sugiharto. disana bisa diterangkan dengan jelas persamaan dan perbedaan antara keduanya.


TANYA:
maaf, Pak Imam Ghozali ada pertanyaan lagi yng ingin
saya ajukan:
penelitian saya tentang manfaat rasio untuk
memprediksi pertumbuhan
laba di masa akan datang.periode pengamatan selama 6
tahun (dari 6
tahun trsebut dibuat perubahan relatifnya sehingga
di dapat 4 periode
perubahan relatif). Variabel independen saya ada 5
kategori (yang
teridiri dari 5 rasio keuangan untuk kategori 1, ada
13 rasio keuangan
untuk kategori 2 dst sehingga total jumlah
keseluruhan rasionya ada 50
rasio keuangan).perusahaan yang menjadi sampel ada
59.
(berarti total observasi saya ada 4 x 59 = 236).
Setelah melihat dari 236 data tsb ternyata data saya
tidak normal
karena CR melebih 2.58 semua). Sebnarnya saya
dianjurkan menggunakan
AMOS tapi karena data saya tidak normal, apakah
sudah benar kalau saya
menggunakan PLS?
Selanjutnya variabel independen akan dihubungkan
dengan pertumbuhan
laba sebagai variabel dependennya. Bagaimana cara
melihat signifikansinya?

JAWAB:
Data tidak normal jika anda menggunakan lisrel ada
cara untuk menormalkan data lebih dahulu atau kalau
anda menggunakan amos bisa diuji apakah ketidak
normalan data msh dapat diterima yaitu dengan prosedur
bootstraping (lihat buku saya). Namun demikian kalau
semuanya tidak dapat dilakukan, anda dapat menggunakan
Partila Least Square. PLS adalah non-parametrik
sehingga tidak tunduk pada asumsi normalitas.





TANYA:
dalam sem ada apakah harus melakukan uji
reliabilitas dan variance
extract?
apakah bisa hanya uji reliabiltas saja atau hanya
variance extract
saja ?

JAWAB:
Keduanya harus diuji, coba baca Hair (atau buku
terbaru saya AMOS 16 segera terbit). Untuk menilai
model ada beberapa kriteria yg dipakai yaitu:
Convergent validity, variance extracted, construct
reliability dan diskriminan validity. Convergent
validity menghendaki nilai loading factor di atas
0.70, Construct Rekliability di atas 0.70 dan Variance
extracted di atas 0.50 sedangkan diskriminan validity
adalah membandingkan antara akar kuadrat dari variance
extrected dengan nilai korelasi antara konstruk. Jika
akar kuadrat dari AVE korelasi maka model baik. Jadi
keduanya harus dihitung supaya anda juga dapat
menghitung diskriminan validitynya.





TANYA:
Pak Imam saya sudah membaca buku bapak "SEM: Metode
alternatif dengan
PLS", saya membaca bahwa PLS cocok untuk tujuan
prediktif sedangkan
AMOS (misalnya) lebih pada pengujian dan
pengembangan teori. Tolong
Pak dijelaskan maksud tujuan prediktif dan pengujian
- pengembangan
teori. Sehingga saya punya gambaran yang jelas
penelitian SEM yang
bagaimana yang cocok menggunakan PLS?


JAWAB:
Dalam model SEM kita berangkat dari menyusun model
berdasarkan pada teori, lalu menguji model tersebut
dengan data empiris. Kalau tujuan kita ingin menguji
model berbasisi teori maka sebaiknya menggunakan
covariance SEM atau Amos dan Lisrel. Akan tetapi Amos
atau Lsirel memerlukan data yang banyak sekitar 100 -
200, skala pengukuran variabel harus interval atau
kontinyu, data terdistribusi secara normal
multivariate dst. Jika data anda memenuhi untuk uji
Amos beserta asumis dipenuhi, maka sebaiknya gunakan
Amos. Kalau asumsi dilanggar dan data anda hanya
sedikit kurang dari 100 misal 50, maka Amos tdk dapat
lagi digunakan dan alternatifnya gunakan PLS. Akan
tetapi tujuan anda tidak bisa lagi mengkonfirmasi
teori, PLS hanya menjelaskan hubungan antar variabel
terbaik yang ada jadi lebih bersifat prediktif bukan
konfirmatori lagi






TANYA:
pak imam ghozali dan teman-teman lain yang
terhormat..
kadang2 dalam sebuah survey kita menghitung besaran
margin errror-nya.
yang saya tanyakan, bagaimana rumus kita
mendapatkan nilai margin error tersebut???
makasih sebelumnya..

JAWAB:
Margin error di tetntukan secara subyektif. Jika anda
menghitung besarnya sample secara statistik maka ada
tiga faktor yang mempengaruhi: (1) homoginitas
populasi (variance) semakin tdk homigin (atau variance
besar), maka semakin besar sample yg diperlukan, (2)
nilai confidence level dan (3) tingkat kesalahan yg
ingin anda toleriri (margin error. Semakin besar
margin error semakin kecil sample yang diperlukan,
tetapi semakin kecil margin error maka semakin besar
sample atau kalau anda tdk mau salah ya sensus (semua
populasi diteliti. Quick count umumnya memasang margin
error 1%. Jadi mergin error berkaitan dengan jumlah
sample untuk memprediksi populasinya.







TANYA:
Saya saat ini sedang mencari topik untuk tesis saya.
Saya tertarik dengan SEM dan ingin bertanya di
manakah saya bisa dapatkan jurnal atau hasil
penelitian lain dalam bidang finance/ manajemen
keuangan dengan menggunakan pendekatan SEM baik dari
dalam maupun luar negeri. Sejauh manakah pendekatan
SEM ini bisa diaplikasikan pada penelitian seputar
manajemen keuangan? cth: investasi dan portofolio,
corporate finance, keuangan internasional.

JAWAB:
Banyak jurnal yg membahas SEM untuk finance bisa
dicari di Proquest atau Ebsco atau dari google anda
search SEM in finance(pdf. SEM dapat digunakan di
finance sepanjang model penelitiannya mempunyai
persamaan struktural (path analysis).







TANYA:
Mohon kesedian pak imam ghozali atau teman2 milist
menanggapi
permasalahan penelitian saya.
saya menggunakan LISREL 8,72 untuk menganalisis
empat eksogen dan dua
endogen, masing2 variabel laten dengan tiga
indikator. data yang
diperoleh sebanyak 322 responden; tidak normal,
sehingga kemudian saya
gunakan asymtotic covariance matrix (sesuai petunjuk
dalam buku pak
imam: SEM - LISREL 8,54) hal 241). metode yang
digunakan semula dengan
ML tetapi hasilnya tidak konvergen. Ketika saya
gunakan Unweighted
Least square (UL) hasil output prelis dan path
diagram bisa didapat.
Pertanyaan:
- Apakah dimungkinkan penggunaan UL pada data yang
tidak normal dan
berjumlah 322?
- Apakah ada cara lainnya sehingga dapat dihasilkan
nilai fit?
Pertanyaan lain:
- Bagaimana cara mengatasi nilai standart error yang
negatif?
- jika pada path diagram, factor loadingnya fix
(system), nilai-t
tidak keluar, bagaimana cara mengatasinya?

JAWAB:
Sebetulnya Lisrel mempunyai fasilitas untuk
menormalkan data lebih dahulu dan kalau sudah normal
bisa langsung menggunakan estimasi maximum likelihood.
Bisa juga dengan data yg tdk normal diestimasi dengan
Maximum Likelihood, tetapi Chi-square dan standar
error diestimasi pada keadaan non-normality (Lisrel
memberikan nilai adjusted Chi-square kalau data tdk
tdk normal: software sekarang makin canggih tdk usah
pusing dengan data tdk normal, uji statistik yg ada
disesuaikan kalau data tdk normal).(lihat buku saya
Listrel hal 231)

Model anda mengalami kasus heywood case yaitu error
variance bernilai negatif (seharusnya positif krn
variance rumusnya kuadrat pasti hasilnya hrs positif),
karena hal inilah model anda tdk memberikan nilai t
statistiknya. Solusinya ya nilai error variance yg
negatif dikonstrin menjadi positif dengan memberi
nilai posityif kecil misal 0.005 (lihat buku saya
listrel hal 150)




TANYA:
Saat ini saya ingin membuat tulisan mengenai
pengaruh investasi dengan pertumbuhan ekonomi.
datanya untuk pertumbuhan adalah PDRB dan investasi
(alternatifnya) adalah data pembentukan modal
domestik bruto (merupakan bagian dari / pembentuk
PDRB) atau data realisasi atau persetujuan investasi
(punyanya BKMPD).
permasalahnnya adalah, topik dan metode apakah yang
kira-kira baik untuk ditulis, apakah bisa saya tulis
mengenai :
1. hubungan causality (dengan pendekatan grenger
causality) antara investasi dengan pertumbuhan
ekonomi sehingga hanya menjelaskan
siapa mempengaruhi siapa, dan untuk ini data
investasi mana yang kira-kira paling baik
2. menghitung mengenai pengaruh dari investasi
terhadap pertumbuhan dengan model fungsi
produksi-nya cobb douglas tentang
pertumbuhan ekonomi yg dipengaruhi oleh kapital dan
labor

JAWAB:
Model tergantung dari tujuan anda ingin apa. Sebaiknya
anda berangkat dengan teori dahulu, baru model
konseptual seperti apa (hubungan antar variabel), baru
dapat ditentukan alat analisis statistik yang cocok
apa?





TANYA:
Saya baru bergabung dengan mailist ini, saya sangat
tertarik dengan ulasan Bapak.
Dan saya juga beli buku-2 Bapak yang bagus untuk
kami baca sebagai pengetahuan.
Namun dibalik hal tersebut Pak, saya saat ini sedang
melakukan penelitian yang
menggunakan veriable moderator, dimana variable X
(independent) berpengaruh
terhadap Variable Y dan diantara kedua variable X
dan Y terdapat variable M.
Pertanyaan saya : Kalau dalam penelitian tersebut
saya menggunakan Persamaan
Regresi Linear, bagaimana bentuk rumus persamaan
tersebut??

JAWAB:
Didalam buku saya ada tiga cara menyelesaikan regresi
dengan variabel moderator:

1. Menggunakan interaksi:
Y = a + b1X + b2M + b3X*M (jika perkalian atau
interaksi antara X dan M signifikan ,maka M adalah
memdoderasi).

2. Menggunakan selisih mutlak
Y = a +b1X + b2M + b3X-M

3. Menggunakan pendekatan residual

Lebih lanjut baca buku saya Analisis Multivariate
dengan SPSS






TANYA:
Prof. Imam saya mulai menikmati mempelajari dan
menggunakan
PLS, saya udah membaca buku Prof dan semakin
membantu saya dalam memahami PLS.
Namun ada beberapa hal yang ingin saya tanyakan
sehubungan dengan beberapa hal
dalam PLS, yaitu:
Masalahweighting scheme. Dalam buku Prof disebutkan
bahwa hasil yang diperoleh dariketiga skema yaitu
Centroid, Factor, dan Path tidak jauh beda. Nah yang
sayatanyakan idealnya kapan atau kondisi yang
bagaiman bagi peneliti sebaiknyamenggunakan atau
memilih satu dari tiga skema tersebut?Sayabelum
menemukan definisi yang jelas tentang Bootstrapping,
yang saya tahu hanyabahwa Bootstrapping sama dengan
resampling. Pertanyaan saya Prof, apasebenarnya
makna dari Bootstrapping?DalamBootstrapping setting
terdapat preprocessing option yang terdiri dari
Constructlevel change dan individual sign change.
Apakah maksudnya kedua pilihantersebut dan kondisi
bagaimana sebaiknya kita memilih salah satu
pilihantersebut Prof? Lalukemudian pada Algorithm
setting terdapat pilihan Data metric yaitu
standardized(mean=0 dan variance=1) dan data
original, maksudnya apa dengan kedua jenisdata
tersebut? Yangterakhir Prof, bila jumlah sampel
hanya 40 apakah kasus per sampel juga
default50 atau bagaimana Prof sebaiknya jumlah
kasus per sampelnya?Demikian Prof. Imam pertanyaan
saya, terima kasih banyak
atas jawaban dan bantuannya.

JAWAB:
-Weighting scheme silahkan anda pilih salah satu
Factor, Centroid atau Path, menurut Prof Chin (pembuat
PLS Graph) sebaiknya menggunakan path.

Bootsrapping adalah resampling, PLS menggunakan
bootstraping dan Jacknifing untuk menentukan nilai t
sehingga dapat diketahui tingkat signifikansi dari
nilai t tersebut. Setiap kali anda melakukan
bootsraping hasil nilai t akan berbeda karena
menggunakan metode iterasi dan setiap komputer
nenggunakan angka awal itersi yg berbeda. Oleh sebab
itu gunakan bootstrapping 200 spy mendapatkan nili t
yg stabil.

input data untuk PLS dapat berupa data mentah
(original) atau standardized (mean=0, variance=1).
dalam analisis SEM gunakan stndardized krn kita ingin
membandingkan antar jalur.








TANYA:
Saya sedang akan menyusun laporan penelitian dengan alat penelitian probit analysis. Untuk mendukung penelitian ini saya lengkapi referensi saya dengan buku bapak, baik multivariate dengan SPSS dan Multivariate SPSS Lanjutan. Namun ada beberapa hal yang masih belum jelas pak, karena tidak tertalu detail disinggung di dalam buku bapak. Pertanyaan saya :

1. Dalam kondisi apa kita menggunakan probit analysis.
2. Apalah dalam probit analysis juga harus dilakukan uji asumsi klasik seperti pada regresi linier?
3. Kalau harus ada uji asumsi klasik apakah prosedur pengerjaannya di dalam SPSS sama dengan regresi linier seperti yang bapak ajarkan dalam buku bapak?, Jika tidak sama dengan pengerjaan pada regresi linier, bagaimana mengerjakannya dengan SPSS tersebut pak?

JAWAB:
Probit dan logistic digunakan untuk regresi jika variabel dependennya kategori (variabel Y), sedangkan variabel indepemdenya bisa kategori atau kontinyu. Tidak perlu asumsi klasik krna menggunakan estimasi maximum likelihood (asumsi klasik untuk model estimasi ordinary least square), tetapi multikol masih diperlukan.



TANYA:
Salam kenal...
Saya ingin tahu bagaimana caranya menaikkan skala
dari
skala ordinal jadi interval?
Jadi saya punya data ranking atribut dari 1-11,
namun
untuk pengolahan data selanjutnya, saya perlu data
ranking tersebut menjadi data interval...

Saya diberitahu hal ini bisa dilakukan dengan
menggunakan MSI yaitu Methods of Succesive Interval
atau bisa juga dengan Method Based on Rank Order
(Hayes)...
Namun saya belum menemukan referensi yang
menjelaskan
metode-metode ini...

JAWAB:
Baca buku saya Model Persamaan Struktural dengan Amos
16, pada buku tersebut ada CD berisi program Excel
untuk merubah data ordinal menjadi interval dengan
metode MSI.




TANYA:
Begini pak saya mahasiswa statistik sedang menyusun
skripsi dengan
judul penggunaan SEM untuk melihat pengaruh TQM
terhadap budaya
kualitas. saya ingin bertanya :
1.apakah dalam SEM ada alat khusus untuk menentukan
sample dari
seluruh populasi?
2.apakah dalam SEM ada alat khusus untuk melihat
validitas dan
reliabilitas quesioner?
3.maaf pak saya belum tau kalo bapak mengeluarkan
buku SEM juga pak????
kalo boleh tau apa judulnya dan siapa penerbitnya
pak serta dimana
saya bisa mendapatkan buku itu pak?????
terima kasih sebelumnya besar harapan saya untuk
mendapatkan jawaban
yang jelas dan akurat dari bapak.....

JAWAB:
Saya sudah menulis 3 buku SEM:
1. Model Persamaan Struktural dengan Amos 16
2. Structural Equation Modeling dengan Lisrel 8.54
3. Structural Equation Modeling metode Alternatif
dengan Partial Least Square (PLS)

kalau anda di jakarta dapat diperoleh di Toko Garmedia
Matraman Raya, Plasa Semanggi, Mal Taman Anggrek dan
Mal Citraland depan Trisakti.

Jika anda di surabaya dapat diperoleh di Gramedia
Manyar Kertoarjo, Gramedia Gubeng dan Plasa Surabaya

Jika anda di Malang dapat diperoleh di Toga Mas Malang

Jika anda di Bandung dapat diperoleh di Gramedia
Merdeka (Jl Merdeka)

Jika anda di Yogya dapat diperoleh di Shopping Centre







TANYA:
Prof, Saya mau nanya tentang analisis
diskriminan Altman. Apakah
analisis tersebut masih up to date untuk memprediksi
kebangkrutan
perusahaan sekarang ini dan apakah bisa digunakan
untuk berbagai jenis
perusahaan? Saya sangat membutuhkan bukti pendukung
untuk mengerjakan
skripsi saya tentang "analisis diskriminan altman
dalam memprediksi
kebangkrutan perusahaan manufaktur". Mohon bantuan
dari profesor.

JAWAB:
Model altman adalah model kebangkrutan di perusahaan
Amerika. Berdasarkan penelitiannya, Altman mendapatkan
erasio-rasio keuangan tertentu yang mampu membedakan
antara perusahaan yang sehat dengan yang bangkrut.
Jadi Altman tentunya tidak cocok untuk Indonesia.
Sebaiknya anda meneliti saja antara perusahaan yang
sdh bangkrut dengan yang sehat dengan menggunakan
analisis diskriminan untuk mencari rasio-rasio
keuangan apa saja yang mampu membedakan antara
perusahaan sehat dan bangkrut di Indonesia sehingga
nanti model anda disebut Sofyan Yamin model








TANYA:
Saya melakukan analisa probit menggunakan SPSS V 16,
dan melihat tampilan hasil yang agak berbeda dengan
tampilan seperti yang terapat di dalam buku bapak
(multivariate lanjutan dengan spss).
Hasil tampilannya adalah sebagai berikut:
Parameter Estimates
Parameter Estimate Std. Error Z Sig. 95%
Confidence Interval
Lower Bound Upper Bound
PROBITa DFSize .108 .051 2.120 .034 .008 .208
Intercept -2.765 .046 -60.614 .000 -2.810 -2.719
a. PROBIT model: PROBIT(p) = Intercept + BX
Mohon petunjuk bagaimana membacanya bila tampilannya
seperti tampak pada tabel di atas. Saya ingin
meneliti probabilitas variabel independen dalam
mempengaruhi variabel dependen. Nah saya bingung
melihat probabilitasnya yang mana, bila ampilannya
seperti tersebut diatas.
Estimate berfungsi untuk menjalaskan apa ya Prof,
kemudian nilai Z dan Sig.
Atas petunjuk bapak Prof. Imam, saya ucapkan terima
kasih tak terhingga.

JAWAB:
Cara membaca tampilan output seperti membaca regresi
biasa. Parameter adalah nama variabel anda, parameter
estimate sama dengan koefisien regresinya dan nilai z
sama dengtan nilai t.

Jadi variabel DF Size mempengaruhi probabilitas(nilai
y yang diberi kode 1 apa?)karena nilai Z signifikan
pada 5%








TANYA:
Dear, Pa Imam, moga sehat selalu...
Saya ada beberapa pertanyaan tentang isi dari
buku bapak yang berjudul "Analisis Multivariate
lanjut dengan SPSS", dalam sub bab 2SLS yaitu :

1. Satuan dari masing-masing variabel yang digunakan
pada data croosec1.xls (kok ada yang negatif
nilainya), sebagai contoh kasus dari metode 2SLS ?
2. masih tentang data croosec1.xls, nilai dari
variable Size dan Ed, maksudnya apa ?, nilai disitu
menunjukan apa ?

JAWAB:
Variable size mengukur jumlah anggota keluarga (jumlah
orang) sedangkan education adalah jumlah tahun sekolah






TANYA:
Assalamualaikum Mas Ghozali saya nia, Saya bekerja
di BMG, saya ingin menganalisa iklim dan curah hujan
yang dipengaruhi banyak variabel, yang setiap
variabel saling terkait seperti suhu, kelembaban,
sehingga membentuk jaring- jaring dalam path
analysis.yang saya tau path analysis adalah salah
satu alalisis dalam SEM, bener ga ya?
trus untuk menganalisis itu pake soft ware apa dan
apa yang pertama kali harus saya siapkan dan saya
lakukan. Terimakasih

JAWAB:
Anda benar kalau hubungannya banyak variabel dan
saling berhubungan maka gunakan Structural equation
Modeling. Anda bisa baca buku saya :
1. Model Persamaan Strukturakl dengan Amos 16
2. Structural Equation Modeling dengan Lisrel 8.54
3. Structural Equation Modeling Metode Alternatif
dengan Partial Least square (PLS)





TANYA:
Saya mahasiswa Maksi di Jakarta tempat P. Ghozali
dulu pernah ngajar
dan saya sedang menyusun tesis.

Mohon penjelasan mengenai model regresi:
saya telah melakukan uji linearitas dan menemukan
bahwa model regresi
saya tidak liear
kemudian saya coba curve estimation dan mendapatkan
bahwa model
Cuadratic memberikan R kuadrat tertinggi diikuti
dengan model Cubic
(selisihnya sedikit sekali).

Pertanyaan saya:
1. Model Cuadratic dan Cubic itu persamaan
regresinya seperti apa?
2. Jika model regresi saya tidak linear (misal
cuadratic /
cubic)pengujian statistik yang bisa saya lanjutkan
seperti apa?
sebelumnya saya mo melakukan uji korelasi & regresi
secara sederhana,
parsial, berganda.
3. Kalo melakukan uji regresi parsial di SPSS
bagaimana caranya?

JAWAB:
Uji linearitas model tidak da[pat dilakuakn secara
sederhana dengan korelasi jika model regresi anda
berganda. Korelasi hanya melihat hubungan dua
variabel. Sebaiknya anda lakukan regresi linear dan
uji semua asumsi klasik apakah benar model anda tdk
linear. Jika tdk linear maka coba dengan model
semi-log atau kanan persamaan di log atau keiri
persamaan yang dilog, kalau masih menyalahai asumsi
klasik, coba double log kanan dan kiri persamaan dilog






TANYA:
Begini mas, point 1 - 5 (Uji - T), bisa mas jalal
katakan tidak signifikans
pada taraf alpha 5%. Tapi, kalau saya menggunakan
taraf alpha 7%; 8%; atau
10% boleh ga ? Boleh dong. Kan taraf alpha
ditentukan oleh peneliti bukan
oleh komputer. Namun, tidak merubah hasil kesimpulan
pada point 1 - 5 (Uji -
T) ya ? Yaitu point 1 - 4 tidak signifikans, namun
point 5 tetap
signifikans.



Lanjut .,



Tapi, hasil untuk uji F berubah, yakni yang tadinya
tidak signifikans pada
5%, menjadi signifikans pada 7%; 8%; atau 10%.
Artinya apa ? Statement yang
mengatakan bahwa : "Uji F signifikans karena ada
salah satu uji-t yang
signifikans"; masih berlaku ya ? Jadi, kesimpulan
yang diambil oleh mas
jalal saya tolak. Yaitu kesimpulan yang mengatakan :


"Bila pola pengaruh tidak searah semua (sebagian
positif dan sebagian
negatif) maka jangan terkejut apalagi alergi melihat
hasil uji simultan yang
tidak signifikan, meskipun ditemukan salah satu
indepdnen ada yang
signifikan pengaruhnya". Karena ini adalah
kesimpulan yang tidak
berlandaskan pada argumen matematis, hanya bersifat
kebetulan.



Begini Mas, tidak ada statement teoritis statistik
(as long as I know); yang
menyatakan bahwa terdapat relasi "exact" antara
Uji-T dengan Uji F dalam
regresi berganda. Pengecualian hanya dalam analisis
regresi sederhana,
dimana hanya terdapat 1 variabel bebas. Sebab,
distribusi T yang
dikuadratkan akan mendekati distribusi F. Coba
perhatikan dalam analisis
regresi sederhana, dimana hanya ada 1 nilai
t-hitung. Kuadratkan nilai
tersebut, maka akan diperoleh nilai yang sama persis
dengan nilai F-Hitung
pada tabel ANOVA



Nah, kalau regresi berganda, maka yang dipakat nilai
t- yang mana dalam
memprediksi ? Namun, jangan takut. Kondisi seperti
ini jarang terjadi.
Namun, ini bukan menunjukkan adanya masalah. Sebab,
dalam lampiran file yang
saya sisipkan, data dengan kondisi mas jalal
sebutkan (saya random dengan
Excel), telah memenuhi kriteria normalitas, non
multikolinieritas, dan
asumsi homoskedastisitas. Silahkan di cek.



Oya, dengan ini juga saya menghimbau kepada berbagai
pihak yang sering
mempergunakan analisis regresi dengan data
cross-section, atau data time
series namun dianggap sebagai cross-section, bahwa
dalam analisis dengan
data cross-section tidak diperlukan : Uji
AUTOKORELASI. Sebab uji
autokorelasi hanya berguna untuk data Time Series,
dan Useless untuk data
Cross-Section.

Hal lain yang juga ingin saya informasikan, bahwa
dalam analisis regresi,
uji Asumsi Non-Heteroskedastisitas, dan uji Asumsi
Non Multikolinieritas
adalah pengujian setelah Regresi. Maksudnya, kedua
uji tersebut dilakukan
setelah analisis regresi, sebab keduanya menggunakan
error regresi dalam
menghitung nilai2 dari pengujiannya. So, bagaimana
mungkin mereka disajikan
terlebih dahulu ? Baru diikuti oleh Analisis
Regresi.



Himbauan ini saya berikan, mengingat masih banyak
dosen di berbagai
universitas di Jakarta yang belum memahami secara
mendalam dari analisis
regresi, namun arahan yang mereka berikan seringkali
melanggar statistical
sense.


JAWAB:
Analisis Anova F test pada regresi berganda digunakan
untuk menguji joint hipotesis bahwa slop koefisien
parsial yang sesungguhnya secara simultan adalah nol.
Kita tidak dapat menggunakan uji t untuk menguji joint
hipotesis ini.
Misalkan saya punya regresi Y = a +b1X1+b2X2+e
Jika nilai F test tidak signifikan (tdk dapat menolak
hipoetsis nol), hal ini berarti sumber variasi nilai Y
bukan berasal dari X1 dan X2 tetapi disebabkan oleh
random error (e)

Jadi F test ingin menguji apakah semua koefisien slope
secara simultan sama dengan nol.
Hubungan antara Individual vs joint testing
hipothesys:
Berdasarkan pada uji t adalah mungkin menerima
hipotesis bahwa bahwa koefisien slop tertentu b1
adalah nol, tetapi kita menolak joint hipotesis bahwa
semua koefieisn slop adalah nol.

Jadi dapat disimpulkan Joint "message" of individual
confidence interval is no subsitute for joint
confidence region (impliede by F test)in performing
joint test of hypotheses and making joint confidence
statement (sumber Basic Econometric Damodar Gujarati
edisi 4 hal 260)






Hi, rekan milist saya baru saja launching buku baru
dengan judul "Desain Penelitian Eksperimental :
Teori,Konsep dan Analisis Data dengan SPSS 16"

Jumlah Halaman 259 dan berisi 13 bab dengan rincian
isi:
Bab 1 : Desain Penelitian Eksperimen
Bab 2: True Experimental dan Quasi-Experimental
Bab 3: Tiga Bangunan Utama Desain Penelitian
Elsperimen
- Completely Randomized Design
- Randomized Block Design
- Latin Square Design
Bab 4: Desain Faktorial
Bab 5: Compeltely Randomized Design dengan Dua
Perlakuan
Bab 6: Completely Randomized Design dengan Lebih dari
Dua Perlakuan
Bab 7: Randomized Block Design dan Latin Square Design
Bab 8: Desain Faktorial dengan Dua Variabel Independen
Bab 9: Desain Faktorial dengan Tiga Variabel
Independen
Bab 10: Desain Anova dengan Random Effects
Bab 11: Hierarchical Design
Bab 12: Desain Eksperimen dengan Covariate
Bab 13: Unbalance Design Anova

Buku ini disertai CD yang berisi data, cara entry data
dan syntax SPSS. Segera dapatkan buku ini di:

Jakarta: Gramedia Matraman, Plasa Semanggi, Mall
Citraland (depan Trisakti), Mall Taman Anggrek

Bandung: Gramedia Merdeka (jl. Merdeka)

Surabaya: Gramedia manyar Kertoarjo, Plasa Surabaya,
Gramedia Gubeng dan Spektra jl Pucang Anom Timur

Yogyakarta : Shopping Centre atau Toko Buku Amalia

Semarang: Program S3 Ekonomi Undip, Program MM Undip
dan Program Magister Sain Akuntansi Undip



TANYA:
Saya ingin menanyakan pertimbangan untuk memilih jumlah sample dan kasus per sampel dalam bootstrapping setting. Demikian juga dalam menentukan jumlah iterasi maksimum dalam algorithm setting.



Dalam buku partial least square karangan prof Imam umumnya menggunakan jumlah sample 100 dan kasus per sampel 50. Sedangkan untuk algorithm setting jumlah iterasi maksimum 500. Apakah angka2 tersebut yang memang sebaiknya yang di gunakan Prof?



Saya membaca beberapa artikel yang menyebutkan bahwa prosedur bootstrapping menggunakan 500 resampling. Apa maksudnya pernyataan tersebut?



Apakah pertimbangan untuk memilih angka-angka tersebut juga dipengaruhi jumlah observasi (jumlah data)?

JAWAB:
Dalam SEM dengan partial least square untuk menentukan signifikan atau tidak hubungan antara variabel dengan melihat nilai t statistik. Besarnya nilai t statistik ini dihitung dengan metode bootstrapping atau jacknife. Nilai t akan stabil kalau jumlah resampling sebesar 500 artinya komputer akan melakukan resampling ulang dari original sample anda sebanyak 500 kali untuk mendapatkan nilai t . Perlu diketahui nilai t ini akan bebeda-beda atar komputer atau kalau anda ulang merun karena menggunakan metode iterasi dan masing-masing komputer memiliki nilai starting yang berbeda, tetapi hasil bootsrap dengan 500 akan memberikan nilai t yg tidak jauh berbeda sehingga dengan kriteria alpha 5% akan konsisten apakah hipotesis diterima atau ditolak. Imam Ghozali







TANYA:
Assalamualaikum, perkenalkan saya hayyun kartika,
sedang menjalankan program amos untuk
Persamaan model struktural dalam rangka penulisan
tesis, tetapi saya mengalami kesulitan dalam
hal normalitas data yang tidak terpenuhi, dan
setelah di run ternyata unidentified model.Saya coba
berulang-ulang
dengan referensi dari buku AMOS 16 tulisan profesor
tetapi belum berhasil.
Model SEM dan Data saya lampirkan. Mohon bantuan
/saran untuk menyelesaikan model persamaan tersebut.
Sebelumnya saya ucapkan terimakasih atas bantuan dan
saran Profesor.

JAWAB:
Mbak Hayyun, setalah saya lihat model anda ternyata:
1. Antar variabel exogen belum ada saling kovariankan
2. Setiap kontruk, maka indikatornya harus ada yg
diberi nilai 1 (kosntrain). Amos secara otomatis akan
memberi indikator pertama dengan nilai 1. Anda
kelihatannya membuang indikator ttp pula memindahkan
nilai 1 pada indikator yg diabuang ke indikator
lainnya (hanya indikator x5 saja yang ada nilai 1)
3. Nilai variance dari Z2 ternyata negative dan ini
tdk boleh sehingga saya konstrain atau diberi nilai
positip kecil (0.005)

4. Sekarang model sudah identified tinggal melakukan
modifikasi model dengan melihat hasil modofikation
indek








TANYA:
Dalam penelitian saya menggunakan PLS diperoleh R square untuk 3
variabel kurang dari 0,4. Structural model dengan nilai kurang dari
0,3. Disisi lain uji validitas instrumen dan reliablitas semuanya
signifikan apa penelitian tersebut masih bermakna?

JAWAB:
R2 0.4 cukup baik karena variabilitas variabel endogen yg dapat dijelaskan oleh variabilitas variabel exogen sebesar 40% . Pada riset dengan data crossection nilia 40% cukup tinggi. Nilai structural model 0.3 merupakan koefieisn regresi yang penting signifikan atau tdk, kalau signikan berarti ada pengaruh Imam Ghozali




TANYA:
Saya ingin menanyakan signifikansi loading factor berdasarkan besarnya t statistik yang dihasilkan oleh output PLS (saya guna Smart PLS).



Dalam salah satu jurnal yang saya baca, suatu hasil penelitian atas hubungan suatu variabel dgn variabel yang lain diperoleh nilai t statistik sebesar 1.365 dengan loading factor 0.121 dan disimpulkan bahwa hubungan antar pemboleh ubah itu signifikan dengan alpha 10%.



Yang ingin saya tanyakan, dalam memproses data, PLS menggunakan pengujian one-tailed atau two-tailed. Hal ini saya tanyakan karena t statistik kurang dari 1.65 menunjukkan bahwa loading factor tidak signifikan.



JAWAB:
hasil output pls nilai t adalah one tail anda tinggal bandingkan dng nilai t tabel jika alpha 1% = 2.58, 5%=1.96 dan 10%=1.64 nilai t hitung dibawah itu berarti tdk signifikan







TANYA:
pak mohon penjelasannya, saya menggunakan regresi logistik untuk
penelitian saya, apakah jika menngunakan regresi logistik semua asumsi
klasik tidak digunakan.
dalam buku bapak analisis multivariate dg spss dan lanjutannya ,
dijelaskan bahwa uji normalitas diabaikan, bagaimana dengan uji asumsi
klasik lainnya apakah diabaikan juga.? ataukah regresi logistik
memiliki uji asumsi tersendiri? kalo memang demikian uji asumsi klasik
apa yang digunakan untuk analisis regresi logistik.
terimakasih banyak.


JAWAB:
Logistik regresi menggunakan asumsi lain karena tdk menggunakan estimasi OLS tetapi maximum likelihood, yangt jelas multikol tetap diperlukan dan uji heteroskedastisitas juga








TANYA:
saya punya pertanyaan tentang uji validitas ini...saya sedang skripsi
yg menggunakan kuesioner tetang perbaikan kualitas produk...

saya pake spss sbg alat uji validitasnya menggunakan skala likert.;..
yang jadi masalah adalah ada poin pertanyaan yang sangat penting dalam
kuesioner tetapi stelah saya olah di spss tidak valid..padahal trend
jawabanya rata rata sangat butuh (poin 5) dan butuh (4)..

mnurut anda ada referensi gak tentang hal tersebut, kmudian apa yang
dilakukan dgn poin pertanyaan tersebut??? mengapa???.. .mohon dibalas
ya

JAWAB:
Coba dilihat pertanyaannya berbentuk positif atau negatif, jangan lupa saat mengolah data dirubah dahulu jika berbentuk negatif. Misal ada 4 item pertanyaan yang 3 item berbentuk positif dan 1 item negatif, maka pada saat tabulasi data jangan lupa yg negatif dirubah dahulu menjadi positif supaya konsisten hasilnya (dugaan saya problem anda ini)







TANYA:
apakah "convergent validity" , "disriminant validity" , "unidimensional"
adakah yang bisa bapak referensikan untuk membantu penulisan tugas akhir saya.
terima kasih yang sebesar-besarnya

JAWAB:
Pertama yg anda lakukan pengujian terhadap outer model (measurement model)
a. Convergent validity: lihat nilai loading factor untuk amsing-masing indikator. Nilai loading hrs diatas 0.70 (pada penelitian pada bidang yg belum berkembang bisa menggunakan 0.5-0.6). Jika ada nilai loading dibawah 0.70 delete dari analisis indikator tsb.
b. Contruct Reliability (sama dengan cronbach alpha mengukur treliabilitas konstruk atau variabel laten) nilainya hrs diatas 0.70 yang diangap reliabil.
c. Average Vrainace Extracted (mengukur validitas) nilainya 0.50
d. Discriminant validity dengan mebandingkan nilai akar dari AVE dengan nilai korelasi antar variabel latent. Nilai akar AVE hrs lebih besar dr korelasi antar variable latent
e. Cross-loading mengukur unidimesionalitas dari variable lantent.

Setelah anda menguji ini semua, lakukan bootstraping atau jacknifing untuk mendapatkan nilai T statistik guna menguji apakah hubungan antar variabel laten signifikan atau tdk.

1. Uji inner model (structural model):
a. Lihat nilai T statistik significan atau tdk
b. lihat nilai R2 uji determinasi atau goodness-fit dari model








TANYA:
Dalam partial least square. Bagaimana prosedur untuk menguji bahwa suatu variable merupakan intervening variabel.


JAWAB:
Saya coba bantu..

Salah satu pendekatan untuk menguji hipotesis mediasi adalah dengan strategi product of coefficient, yaitu dengan menguji signifikansi indirect effect (perkalian direct effect variabel independen terhadap mediator , p1 dan direct effect mediator terhadap variabel dependen,p2, sehingga indirect effect adalah p1*p2).

Sejauh yang saya ketahui, belum ada software PLS yang memiliki fasilitas pengujian langsung terhadap indirect effect, sebagaimana AMOS atau LISREL. AMOS dengan prosedur resampling yaitu bootsrapping, sedangkan LISREL dengan Sobel test-nya, meskipun juga menyediakan bootsrapping.

Dengan demikian, pengujian hipotesis mediasional berdasarkan signifikansi indirect effect pada PLS dilakukan secara manual.
Uji signifikansi indirect effect p1*p2 didasarkan pada rasio antara koefisien p1*p2 dengan standard error-nya yang akan menghasilkan nilai z statistik (z-value). Standard error koefisien p1*p2 dihitung berdasarkan versi Aroian dari Sobel test yang dipopulerkan dan direkomendasikan oleh Baron and Kenny (1986), yaitu akar kuadrat (p2^2 Sp1^2 + p1^2 Sp2^2 + Sp1^2 Sp2^2).
Dimana:
p1 adalah koefisien path pengaruh variabel independen terhadap variabel mediasi
p2 adalah koefisien path pengaruh variabel mediasi terhadap variabel dependen
Sp1 adalah standard error dari koefisien path p1
Sp2 adalah standard error dari koefisien path p2

Jika z-value dalam harga mutlak = 1,96 atau tingkat signifikansi statistik z (p-value) = 0,05, berarti indirect effect variabel independen terhadap dependen melalui variabel mediasi, signifikan pada taraf signifikansi 0,05 (Preacher and Hayes., 2004). z-value beserta nilai probabilitasnya (p-value) dapat dihitung menggunakan Excel atau alat hitung interaktif dari Kris Preachers yang terdapat pada http://www.psych.ku.edu/preacher/sobel/sobel.htm. Dengan hanya memasukkan nilai p1, p2 beserta standar error-nya masing-masing maka uji signifikansi dengan Sobel test (bersama varianya) dapat diperoleh. Hasilnya akan sama dengan bila dihitung dengan rumus di atas.




TANYA:
- jika dalam data data tidak normal sedangkan peneliti tetap ignin datanya menjadi normal, ya tinggal transformasi data saja...bnyak beragam jenis transformasi data
- adapun terkait dengan pengintervalan data, itu biasanya selalu di kaitkan dengan metode successive interval yg ternyata "kontorversial" .
-di dalam MInitab, sepanjang yang saya tahu tidak ada tools untuk pengintervalan data seperti yang diutarakan oleh sdr Ganda. pernah saya mencoba yang saya tahu adalah sebuah macro dalam minitab yang dibuat terdapat dalam salah satu jurnal statistika lokal, yang tentu saja menggunakan algoritma succesive interval, dengan tujuan merubah skal apengukuran dari ordinal menjadi interval
9sekali lagi hal ini kontroversial dikalangan statistisi. sepanjang yg saya tahu di dalam minitab ada juga pembuatan z score
- jika sdr Ganda melakukan anlaisis dengan SEM sementara SEM menuntui normalitas data, sdr Ganda bisa melihat apakah jumlah responden atau objek/kasus sebanding dengan banyaknya variabel yang akan diteliti jika sudah sebanding dan ternyata jumlah sampel/objek besar (ukuran besar relatif, biasanya diatas 100) maka sdr Ganda bisa menggunakan Dalil/ Teorema Limit Pusat, yang secara garis besar menyatakan bahwa sekumpulan data yang berjumlah besar sedangkan distribusinya tidak diketahui maka distribusi yang tidak diketahui itu akan mendekati distribusi normal. gunakan saja teorema ini.

JAWAB:
Kalau msh tetap mau menggunanan SEM, tetapi data tidak normal ya jangan gunakan covariance based SEM, tetapi gunakan saja Component Based SEM yang tdk perlu mengasumsikan data harus normal yaitu dengan menggunakan metode Partial Least square SEM (software banyak ada LVPLS, Visual PLS, smartpls dan pls graph) baca buku saya Structural equation modeling metode alternatif dengan Partial Least square (PLS)
PLS adalah non-parametrik jadi data anda bisa gabungan ordinal, interval




Location: Yogyakarta, Yogyakarta City, Special Region of Yogyakarta, Indonesia