Saya telah mencoba untuk membungkus kepala saya di sekitar bagaimana False Discovery Rate (FDR) harus menginformasikan kesimpulan dari masing-masing peneliti. Misalnya, jika studi Anda kurang bertenaga, haruskah Anda mendiskon hasil Anda meskipun signifikan pada ? Catatan: Saya sedang berbicara tentang FDR dalam konteks memeriksa hasil beberapa studi secara agregat, bukan sebagai metode untuk beberapa koreksi tes.
Membuat asumsi (mungkin murah hati) bahwa dari hipotesis yang diuji adalah benar, FDR adalah fungsi dari tingkat kesalahan tipe I dan tipe II sebagai berikut:
Cukup beralasan bahwa jika sebuah studi kurang bertenaga , kita tidak boleh memercayai hasilnya, bahkan jika hasilnya signifikan, sama seperti kita terhadap studi yang didukung secara memadai. Jadi, seperti yang dikatakan oleh beberapa ahli statistik , ada keadaan di mana, "dalam jangka panjang", kami mungkin mempublikasikan banyak hasil signifikan yang salah jika kita mengikuti pedoman tradisional. Jika suatu badan penelitian dicirikan oleh studi yang secara konsisten kurang bertenaga (misalnya, literatur interaksi gen kandidat lingkungan dekade sebelumnya ), bahkan temuan signifikan yang direplikasi dapat dicurigai.
Menerapkan paket R extrafont
, ggplot2
dan xkcd
, saya pikir ini mungkin berguna dikonseptualisasikan sebagai masalah perspektif:
Dengan informasi ini, apa yang harus dilakukan oleh masing-masing peneliti selanjutnya ? Jika saya memiliki perkiraan tentang seberapa besar efek yang saya pelajari seharusnya (dan karenanya perkiraan , mengingat ukuran sampel saya), haruskah saya menyesuaikan level saya sampai FDR = 0,05? Haruskah saya mempublikasikan hasil pada tingkat bahkan jika studi saya kurang bertenaga dan memberikan pertimbangan FDR kepada konsumen literatur?
Saya tahu ini adalah topik yang telah sering dibahas, baik di situs ini maupun dalam literatur statistik, tetapi sepertinya saya tidak dapat menemukan konsensus pendapat tentang masalah ini.
EDIT: Sebagai tanggapan terhadap komentar @ amoeba, FDR dapat diturunkan dari tabel kontingensi tingkat kesalahan tipe I / tipe II standar (maafkan kejelekannya):
| |Finding is significant |Finding is insignificant |
|:---------------------------|:----------------------|:------------------------|
|Finding is false in reality |alpha |1 - alpha |
|Finding is true in reality |1 - beta |beta |
Jadi, jika kita disajikan dengan temuan yang signifikan (kolom 1), kemungkinan itu salah dalam kenyataannya adalah alpha di atas jumlah kolom.
Tapi ya, kita dapat memodifikasi definisi FDR untuk mencerminkan probabilitas (sebelumnya) bahwa hipotesis yang diberikan adalah benar, meskipun kekuatan studi masih berperan:
sumber
Jawaban:
Sebagai gantinya, penting untuk membuat semua studi dapat diakses, mengabaikan level daya atau hasil yang signifikan. Faktanya, kebiasaan buruk hanya mempublikasikan hasil yang tidak signifikan dan menyembunyikan bias publikasi dan merusak keseluruhan catatan hasil ilmiah.
Jadi peneliti individu harus melakukan penelitian dengan cara yang dapat direproduksi, menyimpan semua catatan dan mencatat semua prosedur eksperimental bahkan jika rincian seperti itu tidak ditanyakan oleh jurnal penerbitan. Dia seharusnya tidak terlalu khawatir tentang daya rendah. Bahkan hasil noninformatif (= hipotesis nol tidak ditolak) akan menambah lebih banyak penaksir untuk studi lebih lanjut, asalkan seseorang dapat memiliki kualitas data yang cukup.
sumber
sumber
Ini sebenarnya pertanyaan filosofis yang mendalam. Saya sendiri seorang peneliti dan saya sudah memikirkannya selama beberapa waktu. Tetapi sebelum jawaban, mari kita tinjau dengan tepat apa tingkat penemuan yang salah.
FDR versus P P hanyalah ukuran dari probabilitas mengatakan bahwa ada perbedaan, ketika tidak ada perbedaan sama sekali dan tidak memperhitungkan daya. FDR, di sisi lain, memperhitungkan daya. Namun, untuk menghitung FDR, kita harus membuat asumsi: berapa probabilitas bahwa kita menerima hasil positif sejati? Itu adalah sesuatu yang kita tidak akan pernah memiliki akses, kecuali dalam keadaan yang sangat dibuat-buat. Saya sebenarnya berbicara tentang ini baru-baru ini selama seminar yang saya berikan. Anda dapat menemukan slide di sini .
Berikut adalah gambar dari makalah David Colquhoun pada topik:
Tingkat penemuan salah dihitung dengan membagi jumlah positif palsu dengan jumlah positif positif dan palsu positif (dalam contoh, 495 / (80 + 495) x 100% = 86%!
Sedikit lagi di P
Perhatikan slide dari kuliah saya. Saya membahas fakta bahwa nilai P diambil dari suatu distribusi. Yang berarti bahwa akan selalu ada peluang bahwa Anda akan menemukan positif palsu. Jadi signifikansi statistik tidak boleh dianggap sebagai kebenaran absolut. Saya berpendapat bahwa sesuatu yang signifikan secara statistik harus ditafsirkan sebagai, "Hei, mungkin ada sesuatu yang menarik di sini, saya tidak yakin, seseorang pergi periksa!" Oleh karena itu, gagasan mendasar tentang reproduksibilitas dalam penelitian!
Jadi apa yang kita lakukan? Nah, poin yang menarik tentang gambar di atas dan analisis P dan FDR saya adalah bahwa satu-satunya cara kita dapat mencapai pemahaman yang jelas adalah melalui 1) reproduksibilitas dan 2) penerbitan semua hasil. Itu termasuk hasil negatif (walaupun hasil negatif sulit diinterpretasikan). Namun, kesimpulan yang kami ambil dari hasil kami harus sesuai. Sayangnya, banyak pembaca dan peneliti tidak sepenuhnya memahami pengertian P dan FDR. Saya percaya itu adalah tanggung jawab pembaca untuk menganalisis hasil dengan tepat ... yang berarti bahwa beban pada akhirnya berada di pundak pendidik. Setelah semua, nilai P 0,000000001 tidak ada artinya jika "prevalensi" (lihat gambar di atas) adalah 0 (dalam hal itu, tingkat penemuan palsu akan 100%).
Sebagai peneliti penerbitan, berhati-hatilah untuk sepenuhnya memahami hasil Anda dan membuat klaim hanya sekuat yang Anda mau. Jika ternyata FDR untuk studi khusus Anda adalah 86% (seperti contoh di atas), maka Anda harus sangat berhati-hati dengan interpretasi Anda. Di sisi lain, jika FDR cukup kecil untuk kenyamanan Anda .... masih hati-hati dengan interpretasi Anda.
Saya harap semuanya di sini jelas. Ini adalah konsep yang sangat penting dan saya senang Anda membuka diskusi. Beritahu saya jika Anda memiliki pertanyaan / masalah / dll.
sumber
Untuk membantu memahami hubungan, saya membuat grafik FDR ini sebagai fungsi probabilitas sebelumnya untuk berbagai kekuatan (dengan alpha = 0,05). Perhatikan grafik ini, dan persamaan @Buckminster menghitung FDR untuk semua hasil dengan P kurang dari alpha. Grafik akan terlihat berbeda jika Anda hanya menganggap nilai P sangat dekat dengan nilai P yang kebetulan Anda amati dalam satu studi.
sumber
Menyarankan publikasi adalah keputusan. Saya pikir bermanfaat untuk mempelajari apa manfaat dan biaya yang terkait dengan keputusan ini.
1) Lingkungan akademik secara universal mendorong para peneliti untuk menerbitkan lebih banyak, berpikir berbagai peringkat publikasi juga akan memengaruhi catatan ini. Kita dapat berasumsi bahwa jurnal yang lebih bergengsi mungkin memiliki pemeriksaan kualitas yang lebih kuat (saya harap begitu).
2) Mungkin ada biaya sosial yang terkait dengan produksi publikasi yang terlalu besar. Sumber daya ini mungkin lebih baik digunakan di tempat lain, seperti dalam penelitian terapan tanpa publikasi hasil. Baru-baru ini ada publikasi yang banyak publikasi tidak penting sebagai sumber karena jumlah publikasi baru sangat besar ... :)
http://arxiv.org/pdf/1503.01881v1.pdf
Bagi peneliti perorangan, kekuatan nomor satu untuk mempublikasikan lebih banyak dan saya pikir harus ada pemeriksaan kualitas yang dilembagakan yang tidak bergantung pada masing-masing individu untuk menjaga kualitas pada tingkat yang diterima.
Dalam hal apa pun, nilai parameter Anda bukan fakta, ini harus diberi nilai dengan mempertimbangkan berbagai biaya dan manfaat yang terkait dengan jumlah hasil yang dipublikasikan ketika hasilnya benar-benar dan / atau sangat signifikan.
sumber