Adakah orang di sini yang menggunakan komputasi ilmiah presisi ganda dengan GPU generasi baru (misalnya K20) melalui Python? Saya tahu bahwa teknologi ini berkembang pesat, tetapi apa cara terbaik untuk melakukan ini saat ini? GPU berada di luar ruang lingkup untuk perpustakaan ilmiah Python...