Raspberry Pi akan melakukan encoding h264 yang dipercepat perangkat keras saat merekam video dari papan kamera. Bagaimana saya bisa menyandikan h264 (menggunakan akselerasi perangkat keras) ketika gambar sumber tidak datang langsung dari kamera?
Apakah ada alat baris perintah yang mendukung ini?
Jika tidak, API apa yang harus saya perhatikan untuk memungkinkan hal ini?
raspiyuv -o - | rpi-encode-yuv
(kira-kira) di manarpi-encode-yuv
alat tersebut berasal dari sini . Ukuran bingkai dikodekan dalam alat ini, jadi Anda harus mengubahnya di awal file C dan mengkompilasi ulang. Sayangnya saya belum berhasil mendapatkan output yang tepat, karenaraspiyuv
sepertinya tidak mengkodekan ukuran frame ke dalam outputnya. Saya mendapatkan foto yang secara bertahap bergeser yang akhirnya berubah menjadi sampah. Masih mengerjakannya.Jawaban:
GStreamer termasuk dalam Raspbian dan dengan plugin OpenMAX-nya akan menggunakan kemampuan enkode perangkat keras Raspberry Pi.
Lihat tautan ini untuk tutorial tentang melakukan apa yang Anda cari: https://www.raspberrypi.org/forums/viewtopic.php?t=72435
Jika Anda tertarik dengan transkoding, saya baru saja memposting jawaban untuk pertanyaan lain yang mungkin menarik bagi Anda: Kecepatan apa yang dapat saya harapkan dari pengkodean perangkat keras-H264?
sumber
Sepertinya dengan mengkompilasi ffmpeg sendiri, di RPi3B + Anda bisa dapatkan
Script untuk bantuan mencapai semua ini dalam forum thread .
sumber