Apa perbedaan antara zaman dan iterasi saat melatih perceptron
Pembelajaran Mendalam adalah area pembelajaran mesin yang bertujuan untuk mempelajari fungsi kompleks menggunakan arsitektur jaringan saraf khusus yang "dalam" (terdiri dari banyak lapisan). Tag ini harus digunakan untuk pertanyaan tentang implementasi arsitektur deep learning. Pertanyaan umum tentang pembelajaran mesin harus diberi tag "pembelajaran mesin". Menyertakan tag untuk pustaka perangkat lunak yang relevan (misalnya, "keras", "tensorflow", "pytorch", "fast.ai", dan lain-lain) sangat membantu.
Apa perbedaan antara zaman dan iterasi saat melatih perceptron
Saya mencoba mendamaikan pemahaman saya tentang LSTM dan ditunjukkan di sini di posting ini oleh Christopher Olah diimplementasikan di Keras. Saya mengikuti blog yang ditulis oleh Jason Brownlee untuk tutorial Keras. Yang paling membuat saya bingung adalah, Pembentukan kembali seri data menjadi...
Apa perbedaan antara 'SAMA' dan padding 'VALID' di tf.nn.max_pooldari tensorflow? Menurut pendapat saya, 'VALID' berarti tidak akan ada bantalan nol di luar tepi ketika kita melakukan max pool. Menurut A guide to convolution arithmetic untuk pembelajaran mendalam , dikatakan bahwa tidak akan ada...
Untuk setiap Keras lapisan ( Layerkelas), bisa seseorang menjelaskan bagaimana memahami perbedaan antara input_shape, units, dim, dll? Sebagai contoh, kata doc, unitstentukan bentuk output dari sebuah layer. Pada gambar jaringan syaraf di bawah ini hidden layer1memiliki 4 unit. Apakah ini...
Dalam fungsi TensorFlow berikut, kita harus memberi makan aktivasi neuron buatan di lapisan akhir. Itu saya mengerti. Tapi saya tidak mengerti mengapa ini disebut log? Bukankah itu fungsi matematika? loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = last_layer, labels =...
Saya mencari cara alternatif untuk menyelamatkan model yang terlatih di PyTorch. Sejauh ini, saya telah menemukan dua alternatif. torch.save () untuk menyimpan model dan torch.load () untuk memuat model. model.state_dict () untuk menyimpan model yang terlatih dan model.load_state_dict () untuk...
Saya mencoba melatih CNN untuk mengkategorikan teks berdasarkan topik. Ketika saya menggunakan cross-entropy biner saya mendapatkan akurasi ~ 80%, dengan cross-entropy kategoris saya mendapatkan akurasi ~ 50%. Saya tidak mengerti mengapa ini terjadi. Ini masalah multikelas, bukankah itu berarti...
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Saya tidak dapat memahami tugas dari fungsi ini. Apakah ini seperti tabel pencarian? Yang berarti mengembalikan parameter yang sesuai dengan setiap id (dalam id)? Misalnya, dalam skip-grammodel jika kita gunakan...
Saya telah melatih model klasifikasi biner dengan CNN, dan ini kode saya model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0],...
Tutup. Pertanyaan ini tidak memenuhi pedoman Stack Overflow . Saat ini tidak menerima jawaban. Ingin memperbaiki pertanyaan ini? Perbarui pertanyaan agar sesuai dengan topik untuk Stack Overflow. Tutup 3 bulan lalu . Perbaiki pertanyaan ini
Adakah yang bisa menjelaskan dengan jelas perbedaan antara konvolusi 1D, 2D, dan 3D dalam jaringan saraf konvolusional (dalam pembelajaran mendalam) dengan menggunakan
Bagaimana cara menginisialisasi bobot dan bias (misalnya, dengan inisialisasi He atau Xavier) dalam jaringan di PyTorch?
Saya mencoba memahami peran Flattenfungsi di Keras. Di bawah ini adalah kode saya, yang merupakan jaringan dua lapis sederhana. Ini mengambil data bentuk 2 dimensi (3, 2), dan mengeluarkan data bentuk 1 dimensi (1, 4): model = Sequential() model.add(Dense(16, input_shape=(3,
Saya mencoba untuk memahami LSTM dan bagaimana membangunnya dengan Keras. Saya menemukan, bahwa pada dasarnya ada 4 mode untuk menjalankan RNN (4 mode yang tepat di gambar) Sumber gambar: Andrej Karpathy Sekarang saya bertanya-tanya bagaimana cuplikan kode minimalis untuk masing-masing akan...
Jika kita memiliki 10 vektor eigen maka kita dapat memiliki 10 node neural pada input layer, jika kita memiliki 5 kelas output maka kita dapat memiliki 5 node di lapisan output, tetapi apa kriteria pemilihan hidden layer dalam sebuah MLP dan berapa neural. node dalam 1 lapisan
Saya melatih jaringan saraf untuk proyek saya menggunakan Keras. Keras telah menyediakan fungsi untuk berhenti lebih awal. Bolehkah saya mengetahui parameter apa yang harus diperhatikan untuk menghindari jaringan saraf saya overfitting dengan menggunakan penghentian awal?
Saya menjalankan model LSTM untuk pertama kalinya. Ini model saya: opt = Adam(0.002) inp = Input(...) print(inp) x = Embedding(....)(inp) x = LSTM(...)(x) x = BatchNormalization()(x) pred = Dense(5,activation='softmax')(x) model = Model(inp,pred) model.compile(....) idx =
Mempertimbangkan kode contoh . Saya ingin tahu Bagaimana cara menerapkan pemotongan gradien pada jaringan ini di RNN di mana ada kemungkinan gradien yang meledak. tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) Ini adalah contoh yang dapat digunakan tetapi di mana saya...
Saya baru-baru ini meninjau implementasi menarik untuk klasifikasi teks konvolusional . Namun semua kode TensorFlow yang saya tinjau menggunakan vektor penyematan acak (tidak terlatih sebelumnya) seperti berikut: with tf.device('/cpu:0'), tf.name_scope("embedding"): W = tf.Variable(...
Saya menemukan di banyak kode jaringan neural yang tersedia yang diimplementasikan menggunakan TensorFlow bahwa istilah regularisasi sering diterapkan dengan menambahkan istilah tambahan ke nilai kerugian secara manual. Pertanyaan saya adalah: Apakah ada cara regularisasi yang lebih elegan...