Secara praktis, bagaimana orang menangani ANOVA ketika data tidak memenuhi asumsi?

19

Ini bukan pertanyaan statistik semata - saya bisa membaca semua buku teks tentang asumsi ANOVA - Saya mencoba mencari tahu bagaimana analis yang sebenarnya menangani data yang tidak memenuhi asumsi. Saya telah melalui banyak pertanyaan di situs ini untuk mencari jawaban dan saya terus mencari posting tentang kapan tidak menggunakan ANOVA (dalam konteks matematika abstrak yang ideal) atau bagaimana melakukan beberapa hal yang saya jelaskan di bawah ini dalam R. I Saya benar-benar mencoba mencari tahu keputusan apa yang dibuat orang dan mengapa.

Saya sedang menjalankan analisis pada data kelompok dari pohon (pohon aktual, bukan pohon statistik) dalam empat kelompok. Saya punya data untuk sekitar 35 atribut untuk setiap pohon dan saya akan melalui setiap atribut untuk menentukan apakah kelompok berbeda secara signifikan pada atribut itu. Namun, dalam beberapa kasus, asumsi ANOVA sedikit dilanggar karena varians tidak sama (menurut tes Levene, menggunakan alpha = 0,05).

Seperti yang saya lihat, opsi saya adalah: 1. Kekuatan mengubah data dan melihat apakah itu mengubah p-val Levene. 2. Gunakan tes non-parametrik seperti Wilcoxon (jika demikian, yang mana?). 3. Apakah ada semacam koreksi pada hasil ANOVA, seperti Bonferroni (saya tidak benar-benar yakin jika sesuatu seperti ini ada?). Saya sudah mencoba dua opsi pertama dan mendapatkan hasil yang sedikit berbeda - dalam beberapa kasus satu pendekatan signifikan dan yang lainnya tidak. Saya takut jatuh ke dalam jebakan p-value, dan saya mencari saran yang akan membantu saya membenarkan pendekatan mana yang digunakan.

Saya juga membaca beberapa hal yang menunjukkan bahwa heteroskedastisitas tidak terlalu menjadi masalah bagi ANOVA kecuali jika cara dan variansnya berkorelasi (yaitu keduanya meningkat bersamaan), jadi mungkin saya bisa mengabaikan hasil Levene kecuali jika saya melihat pola seperti itu? Jika demikian, apakah ada tes untuk ini?

Akhirnya, saya harus menambahkan bahwa saya sedang melakukan analisis ini untuk publikasi dalam jurnal yang ditelaah sejawat, jadi pendekatan apa pun yang saya pilih harus diterima dengan pengulas. Jadi, jika ada yang bisa memberikan tautan ke contoh serupa yang dipublikasikan, itu akan fantastis.

Jas Max
sumber
3
Apakah Anda menggunakan atau tidak R, mungkin bermanfaat bagi Anda untuk membaca jawaban saya di sini: Alternatif untuk ANOVA satu arah untuk data heteroskedastik , yang membahas beberapa masalah ini.
gung - Reinstate Monica

Jawaban:

18

Saya mencoba mencari tahu bagaimana analis yang sebenarnya menangani data yang tidak cukup memenuhi asumsi.

Itu tergantung pada kebutuhan saya, asumsi mana yang dilanggar, dengan cara apa, seberapa buruk, seberapa banyak yang mempengaruhi kesimpulan, dan kadang-kadang pada ukuran sampel.

Saya sedang menjalankan analisis pada data yang dikelompokkan dari pohon dalam empat kelompok. Saya punya data untuk sekitar 35 atribut untuk setiap pohon dan saya akan melalui setiap atribut untuk menentukan apakah kelompok berbeda secara signifikan pada atribut itu. Namun, dalam beberapa kasus, asumsi ANOVA sedikit dilanggar karena varians tidak sama (menurut tes Levene, menggunakan alpha = 0,05).

1) Jika ukuran sampel sama, Anda tidak memiliki banyak masalah. ANOVA cukup (level-) kuat untuk varian yang berbeda jika n adalah sama.

2) menguji persamaan varians sebelum memutuskan apakah akan menganggapnya direkomendasikan oleh sejumlah studi. Jika Anda benar-benar ragu bahwa mereka akan mendekati persamaan, lebih baik menganggap mereka tidak setara.

Beberapa referensi:

Zimmerman, DW (2004),
"Catatan tentang tes awal kesetaraan varian."
Br. J. Math. Stat. Psikol. , Mei ; 57 (Bg 1): 173-81.
http://www.ncbi.nlm.nih.gov/pubmed/15171807

Henrik memberikan tiga referensi di sini

3) Ini ukuran efek yang penting, daripada apakah sampel Anda cukup besar untuk memberi tahu Anda mereka berbeda secara signifikan. Jadi dalam sampel besar, perbedaan kecil dalam varians akan menunjukkan sangat signifikan oleh uji Levene, tetapi pada dasarnya tidak ada konsekuensi dalam dampaknya. Jika sampel besar dan ukuran efek - rasio varians atau perbedaan varians - cukup dekat dengan apa yang seharusnya, maka nilai-p tidak ada konsekuensinya. (Di sisi lain, dalam sampel kecil, nilai-p besar yang bagus sedikit tidak nyaman. Either way tes tidak menjawab pertanyaan yang tepat.)

Perhatikan bahwa ada penyesuaian tipe Welch-Satterthwaite untuk estimasi kesalahan standar residual dan df di ANOVA, seperti halnya pada uji-t dua sampel.

  1. Gunakan tes non-parametrik seperti Wilcoxon (jika demikian, yang mana?).

Jika Anda tertarik dengan alternatif pergeseran lokasi, Anda masih mengasumsikan sebaran konstan. Jika Anda tertarik pada alternatif yang lebih umum maka Anda mungkin mempertimbangkannya; sampel-k yang setara dengan uji Wilcoxon adalah tes Kruskal-Wallis.

Lakukan semacam koreksi pada hasil ANOVA

Lihat saran saya di atas untuk mempertimbangkan Welch-Satterthwaite, itu semacam 'koreksi'.

(Atau Anda dapat menggunakan ANOVA Anda sebagai serangkaian uji-t Welch tipe berpasangan, dalam hal ini Anda mungkin ingin melihat Bonferroni atau yang serupa)

Saya juga membaca beberapa hal yang menunjukkan bahwa heteroskedastisitas tidak terlalu menjadi masalah bagi ANOVA kecuali jika cara dan variansnya berkorelasi (yaitu keduanya meningkat bersamaan)

Anda harus mengutip sesuatu seperti itu. Setelah melihat sejumlah situasi dengan uji-t, saya tidak berpikir itu benar, jadi saya ingin melihat mengapa mereka berpikir demikian; mungkin situasinya dibatasi dalam beberapa cara. Akan lebih baik jika itu terjadi karena model linier yang cukup umum dapat membantu dengan situasi itu.

Akhirnya, saya harus menambahkan bahwa saya sedang melakukan analisis ini untuk publikasi dalam jurnal yang ditelaah sejawat, jadi pendekatan apa pun yang saya pilih harus diterima dengan pengulas.

Sangat sulit untuk memprediksi apa yang mungkin memuaskan pengulas Anda. Sebagian besar dari kita tidak bekerja dengan pohon.

Glen_b -Reinstate Monica
sumber
12

Sebenarnya tidak terlalu sulit untuk menangani heteroskedastisitas dalam model linier sederhana (misalnya, model mirip ANOVA satu atau dua arah).

Kuatnya ANOVA

Pertama, seperti yang diketahui orang lain, ANOVA sangat kuat untuk penyimpangan dari asumsi varians yang sama, terutama jika Anda memiliki data yang seimbang (jumlah pengamatan yang sama di setiap kelompok). Tes pendahuluan pada varian yang sama, selain itu, tidak (meskipun tes Levene jauh lebih baik daripada uji- F yang biasa diajarkan dalam buku teks). Seperti yang dikatakan George Box:

Untuk membuat uji pendahuluan atas varian-variasinya agak seperti melaut di atas perahu dayung untuk mengetahui apakah kondisinya cukup tenang bagi seorang pelaut untuk meninggalkan pelabuhan!

Meskipun ANOVA sangat kuat, karena sangat mudah untuk memperhitungkan heteroskedastisitas, hanya ada sedikit alasan untuk tidak melakukannya.

Tes non-parametrik

Jika Anda benar-benar tertarik pada perbedaan dalam cara , tes non-parametrik (misalnya, tes Kruskal-Wallis) benar-benar tidak ada gunanya. Mereka menguji perbedaan antar kelompok, tetapi mereka tidak menguji perbedaan rata-rata secara umum.

Contoh data

Mari kita buat contoh sederhana dari data di mana orang ingin menggunakan ANOVA, tetapi di mana asumsi varian yang sama tidak benar.

set.seed(1232)
pop = data.frame(group=c("A","B","C"),
                 mean=c(1,2,5),
                 sd=c(1,3,4))
d = do.call(rbind, rep(list(pop),13))
d$x = rnorm(nrow(d), d$mean, d$sd)

Kami memiliki tiga kelompok, dengan (jelas) perbedaan dalam cara dan varians:

stripchart(x ~ group, data=d)

Stripchart menampilkan contoh data.

ANOVA

Tidak mengherankan, ANOVA yang normal menangani ini dengan cukup baik:

> mod.aov = aov(x ~ group, data=d)
> summary(mod.aov)
            Df Sum Sq Mean Sq F value  Pr(>F)    
group        2  199.4   99.69   13.01 5.6e-05 ***
Residuals   36  275.9    7.66                    
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Jadi, kelompok mana yang berbeda? Mari kita gunakan metode HSD Tukey:

> TukeyHSD(mod.aov)
  Tukey multiple comparisons of means
    95% family-wise confidence level

Fit: aov(formula = x ~ group, data = d)

$group
        diff        lwr      upr     p adj
B-A 1.736692 -0.9173128 4.390698 0.2589215
C-A 5.422838  2.7688327 8.076843 0.0000447
C-B 3.686146  1.0321403 6.340151 0.0046867

Dengan nilai- P dari 0,26, kami tidak dapat mengklaim perbedaan (dalam arti) antara kelompok A dan B. Dan bahkan jika kami tidak memperhitungkan bahwa kami melakukan tiga perbandingan, kami tidak akan mendapatkan P yang rendah - nilai ( P  = 0,12):

> summary.lm(mod.aov)
[…]
Coefficients:
            Estimate Std. Error t value  Pr(>|t|)    
(Intercept)   0.5098     0.7678   0.664     0.511    
groupB        1.7367     1.0858   1.599     0.118    
groupC        5.4228     1.0858   4.994 0.0000153 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 2.768 on 36 degrees of freedom

Mengapa demikian? Berdasarkan plot, ada adalah perbedaan cukup jelas. Alasannya adalah bahwa ANOVA mengasumsikan varians yang sama di setiap kelompok, dan memperkirakan standar deviasi 2,77 (ditampilkan sebagai 'Kesalahan standar residual' disummary.lm tabel, atau Anda bisa mendapatkannya dengan mengambil akar kuadrat dari kuadrat residual rata-rata (7,66) dalam tabel ANOVA).

Tetapi kelompok A memiliki (populasi) standar deviasi 1, dan perkiraan terlalu tinggi dari 2,77 ini membuat (tidak perlu) sulit untuk mendapatkan hasil yang signifikan secara statistik, yaitu, kami memiliki tes dengan (terlalu) daya rendah.

'ANOVA' dengan varian yang tidak sama

Jadi, bagaimana cara mencocokkan model yang tepat, model yang memperhitungkan perbedaan varian? Mudah di R:

> oneway.test(x ~ group, data=d, var.equal=FALSE)
    One-way analysis of means (not assuming equal variances)

data:  x and group
F = 12.7127, num df = 2.000, denom df = 19.055, p-value = 0.0003107

Jadi, jika Anda ingin menjalankan 'ANOVA' satu arah yang sederhana dalam R tanpa mengasumsikan varian yang sama, gunakan fungsi ini. Ini pada dasarnya merupakan perpanjangan dari (Welch) t.test()untuk dua sampel dengan varian yang tidak sama.

Sayangnya, itu tidak bekerja dengan TukeyHSD()(atau sebagian besar fungsi lain yang Anda gunakan pada aovobjek), sehingga bahkan jika kami cukup yakin ada yang perbedaan kelompok, kita tidak tahu di mana mereka berada.

Pemodelan heteroskedastisitas

Solusi terbaik adalah memodelkan varians secara eksplisit. Dan itu sangat mudah di R:

> library(nlme)
> mod.gls = gls(x ~ group, data=d,
                weights=varIdent(form= ~ 1 | group))
> anova(mod.gls)
Denom. DF: 36 
            numDF  F-value p-value
(Intercept)     1 16.57316  0.0002
group           2 13.15743  0.0001

Perbedaan masih signifikan, tentu saja. Tetapi sekarang perbedaan antara kelompok A dan B juga menjadi signifikan secara statis ( P  = 0,025):

> summary(mod.gls)
Generalized least squares fit by REML
  Model: x ~ group
  […]
Variance function:
 Structure: Different standard
            deviations per stratum
 Formula: ~1 | group 
 Parameter estimates:
       A        B        C 
1.000000 2.444532 3.913382 

Coefficients:
               Value Std.Error  t-value p-value
(Intercept) 0.509768 0.2816667 1.809829  0.0787
groupB      1.736692 0.7439273 2.334492  0.0253
groupC      5.422838 1.1376880 4.766542  0.0000
[…]
Residual standard error: 1.015564 
Degrees of freedom: 39 total; 36 residual

Jadi menggunakan model yang tepat membantu! Juga catat bahwa kita mendapatkan perkiraan standar deviasi (relatif). Estimasi standar deviasi untuk grup A dapat ditemukan di bagian bawah, hasil, 1,02. Estimasi standar deviasi grup B adalah 2,44 kali ini, atau 2,48, dan estimasi standar deviasi grup C adalah 3,97 (tipe intervals(mod.gls)untuk mendapatkan interval kepercayaan untuk standar deviasi relatif grup B dan C).

Memperbaiki untuk beberapa pengujian

Namun, kami harus benar-benar memperbaiki beberapa pengujian. Ini mudah menggunakan perpustakaan 'multcomp'. Sayangnya, itu tidak memiliki dukungan bawaan untuk objek 'gls', jadi kita harus menambahkan beberapa fungsi pembantu terlebih dahulu:

model.matrix.gls <- function(object, ...)
    model.matrix(terms(object), data = getData(object), ...)
model.frame.gls <- function(object, ...)
  model.frame(formula(object), data = getData(object), ...)
terms.gls <- function(object, ...)
  terms(model.frame(object),...)

Sekarang mari kita mulai bekerja:

> library(multcomp)
> mod.gls.mc = glht(mod.gls, linfct = mcp(group = "Tukey"))
> summary(mod.gls.mc)
[…]
Linear Hypotheses:
           Estimate Std. Error z value Pr(>|z|)    
B - A == 0   1.7367     0.7439   2.334   0.0480 *  
C - A == 0   5.4228     1.1377   4.767   <0.001 ***
C - B == 0   3.6861     1.2996   2.836   0.0118 *  

Masih ada perbedaan yang signifikan secara statistik antara kelompok A dan kelompok B! ☺ Dan kita bahkan bisa mendapatkan interval kepercayaan (simultan) untuk perbedaan antara cara kelompok:

> confint(mod.gls.mc)
[…]
Linear Hypotheses:
           Estimate lwr     upr    
B - A == 0 1.73669  0.01014 3.46324
C - A == 0 5.42284  2.78242 8.06325
C - B == 0 3.68615  0.66984 6.70245

Dengan menggunakan kira-kira (di sini tepatnya) model yang benar, kami dapat mempercayai hasil ini!

Perhatikan bahwa untuk contoh sederhana ini, data untuk grup C tidak benar-benar menambahkan informasi tentang perbedaan antara grup A dan B, karena kami memodelkan cara terpisah dan standar deviasi untuk masing-masing grup. Kami bisa saja menggunakan uji- t berpasangan yang dikoreksi untuk beberapa perbandingan:

> pairwise.t.test(d$x, d$group, pool.sd=FALSE)
    Pairwise comparisons using t tests with non-pooled SD 

data:  d$x and d$group 

  A       B      
B 0.03301 -      
C 0.00098 0.02032

P value adjustment method: holm 

Namun, untuk model yang lebih rumit, misalnya, model dua arah, atau model linier dengan banyak prediktor, menggunakan GLS (generalised least square) dan secara eksplisit memodelkan fungsi varians adalah solusi terbaik.

Dan fungsi varians tidak perlu hanya menjadi konstanta yang berbeda di setiap kelompok; kita bisa memaksakan struktur padanya. Sebagai contoh, kita dapat memodelkan varians sebagai kekuatan dari rata - rata setiap kelompok (dan dengan demikian hanya perlu memperkirakan satu parameter, eksponen), atau mungkin sebagai logaritma dari salah satu prediktor dalam model. Semua ini sangat mudah dengan GLS (dan gls()dalam R).

Kuadrat terkecil yang digeneralisasikan adalah IMHO teknik pemodelan statistik yang sangat jarang digunakan. Alih-alih mengkhawatirkan penyimpangan dari asumsi model , modelkan penyimpangan itu!

Karl Ove Hufthammer
sumber
1
Terima kasih atas jawabannya! Saya tidak mengerti tentang hasil dari oneway.test () dan gls () untuk varian ANOVA yang tidak sama (Welch ANOVA). Nilai p oneway.test () adalah p-value = 0,0003107. Tetapi nilai p dari gls (x ~ grup, data = d, bobot = varIdent (form = ~ 1 | grup)) adalah 0,0001. Mengapa kedua hasil ini berbeda?
WCMC
2
Ada kekhawatiran yang berkembang atas koreksi untuk beberapa pengujian, saya pikir melaporkan nilai-p yang tidak dikoreksi bersama dengan jumlah perbandingan yang Anda lakukan lebih transparan. Terutama karena Anda mungkin tidak tertarik pada setiap perbandingan berpasangan saat mengujinya di R, jadi koreksi akan dilakukan dengan memperhitungkan perbandingan akun yang tidak menarik.
Nakx
7
  1. Mungkin memang ada beberapa transformasi data Anda yang menghasilkan distribusi normal yang dapat diterima. Tentu saja, sekarang kesimpulan Anda adalah tentang data yang diubah, bukan data yang tidak berubah.

  2. Dengan asumsi Anda berbicara tentang ANOVA satu arah, tes Kruskal-Wallis adalah analog nonparametrik yang sesuai dengan ANOVA satu arah. Tes Dunn (bukan tes jumlah rangking varietas kebun) mungkin merupakan tes nonparametrik paling umum yang sesuai untuk beberapa perbandingan post-hoc , meskipun ada tes lain seperti tes Conover-Iman (lebih kuat dari tes Dunn setelah penolakan. dari kruskal-Wallis), dan uji Dwass-Steele-Crichtlow-Fligner.

  3. Beberapa prosedur perbandingan (apakah variasi tingkat kesalahan berdasarkan keluarga atau variasi tingkat penemuan palsu ) tidak benar-benar berhubungan langsung dengan asumsi pengujian spesifik Anda (mis., Normalitas data), melainkan berkaitan dengan arti dariα (kesediaan untuk membuat penolakan palsu terhadap hipotesis nol) mengingat bahwa Anda melakukan beberapa tes.

ANOVA didasarkan pada rasio dalam kelompok dan antara varian kelompok. Saya tidak sepenuhnya yakin apa yang Anda maksudkan dengan heteroskedastisitas dalam konteks ini, tetapi jika Anda memaksudkan perbedaan yang tidak sama antara kelompok, yang menurut saya akan secara mendasar mematahkan logika hipotesis nol tes ini.

Kueri Google Cendekia sederhana untuk "tes Dunn" bersama dengan istilah umum dari disiplin Anda akan menghasilkan banyak contoh yang dipublikasikan.


Referensi

Conover, WJ dan Iman, RL (1979). Pada prosedur perbandingan ganda . Laporan Teknis LA-7677-MS, Laboratorium Ilmiah Los Alamos.

Crichtlow, DE dan Fligner, MA (1991). Pada beberapa perbandingan bebas distribusi dalam analisis varian satu arah .Komunikasi dalam Statistik — Teori dan Metode , 20 (1): 127.

Dunn, OJ (1964). Beberapa perbandingan menggunakan jumlah peringkat . Technometrics , 6 (3): 241–252.

Alexis
sumber
2
Oke, terima kasih atas jawaban ini, tetapi saya tidak sepenuhnya mengerti apa yang Anda katakan. Sejauh 'heteroskedastisitas' saya pikir saya menggunakan kata dalam pengertian biasa: "kumpulan variabel acak adalah heteroskedastik jika ada sub-populasi yang memiliki variabilitas berbeda dari yang lain. Di sini" variabilitas "dapat dikuantifikasi oleh varians atau ukuran lain dari penyebaran statistik. "- Wikipedia. Dalam data saya, varian sub-kelompok tidak sama (menurut uji Levene) jadi saya menggambarkannya sebagai heteroskedastik. Apakah ini tidak benar?
Jas Max
1
Yang saya benar-benar coba diskusikan adalah kesenjangan antara statistik buku teks dan dunia nyata. Setiap buku teks mengatakan "varians harus sama untuk ANOVA" tetapi tentu saja mereka tidak pernah sama. Jadi, apakah kita memutus secara sewenang-wenang pada titik tertentu dan beralih ke tes yang berbeda - jika demikian, pada titik apa? Di bidang saya (biologi tanaman) kebanyakan orang hanya menggunakan tes apa pun yang mereka dilatih untuk digunakan tanpa banyak berpikir. Saya tidak benar-benar puas dengan itu. Saya menyukai saran untuk buku / situs web yang membahas penggunaan statistik 'praktis' - yaitu tes mana yang digunakan kapan, dan mengapa. Terima kasih atas saran Dunn, itu membantu.
Jas Max
2
Ah, asumsi varians yang sama adalah varians populasi, bukan varians sampel . Anda dapat menyimpulkan bahwa varians populasi sama ... melalui uji bola mata, atau oleh beberapa lainnya, katakanlah, uji statistik.
Alexis
1
Bagaimana Anda tahu sesuatu tentang varians populasi jika tidak dengan mengevaluasi varians sampel? Saya menafsirkan p-val uji Levene sebagai "dengan asumsi varians populasi adalah sama, berapa besar kemungkinan varians sampel Anda akan sangat berbeda." Jika saya mendapatkan p-val rendah saya menolak hipotesis bahwa varians populasi sama dan tidak dapat menggunakan ANOVA. Kruskal-Wallace tampaknya merupakan alternatif yang baik, tetapi apakah lebih baik mengubah data untuk memenuhi asumsi ANOVA dan jika demikian mengapa?
Jas Max
1
Juga, apakah tes Levene, p <0,05 tes dan cutoff yang tepat untuk keputusan ini? Bagaimana dengan O'Brien, Bartlett's ... hasil tes ini dapat sangat berbeda dan saya tidak benar-benar tahu mana yang harus digunakan - jadi saya pergi dengan Levene karena tampaknya yang paling konservatif. Tapi mungkin itu berlebihan - mungkin karena terlalu cepat untuk meninggalkan ANOVA, saya beralih ke tes yang tidak perlu mengurangi kekuatan statistik analisis saya.
Jas Max
1

Kedengarannya bagi saya seolah-olah Anda sedang melakukan gerakan kaki dan mencoba yang terbaik tetapi khawatir upaya Anda tidak akan cukup baik untuk mendapatkan kertas Anda melewati pengulas. Sangat banyak masalah dunia nyata. Saya pikir semua peneliti berjuang dengan analisis yang tampaknya menjadi batas atau bahkan terus terang melanggar asumsi dari waktu ke waktu. Lagipula ada jutaan artikel yang mengevaluasi misalnya efek perawatan pada 3 kelompok kecil tikus dengan sekitar 6 - 7 tikus di masing-masing kelompok. Bagaimana mengetahui apakah asumsi Anova puas dengan tulisan seperti itu!

Saya telah memeriksa sejumlah besar makalah terutama di bidang patofisiologi kardiovaskular dan sebenarnya tidak pernah merasa 100% yakin apakah saya dapat mempercayai data atau tidak dalam artikel yang saya baca. Tetapi bagi saya sebagai reviewer, saya sebenarnya cenderung berpikir bahwa masalah dapat muncul pada begitu banyak level dalam sains sehingga mungkin ada sedikit gunanya menggali terlalu dalam ke dalam statistik - setelah semua, seluruh dataset dapat dibuat dan saya tidak akan pernah dalam sejuta tahun bisa tahu. Karenanya, akan selalu ada unsur kepercayaan dalam bidang pekerjaan ini, yang tidak boleh disalahgunakan oleh para peneliti.

Saran dunia nyata yang akan saya berikan adalah bahwa Anda harus memikirkan semuanya dengan seksama sebelum Anda mengirim dan memastikan Anda akan mampu menjawab dengan jujur ​​setiap pertanyaan yang diajukan oleh pengulas. Selama Anda telah melakukan yang terbaik, niat Anda jujur ​​dan Anda tidur nyenyak di malam hari saya pikir Anda harus baik-baik saja.

Angus P
sumber
2
Saya tidak yakin saya setuju untuk tidak dapat menemukan fabrikasi: Saya telah melihat itu sebelumnya.
Alexis