Apakah ada cara untuk menentukan pengkodean string dalam C #?
Katakanlah, saya memiliki string nama file, tetapi saya tidak tahu apakah itu dikodekan dalam Unicode UTF-16 atau pengkodean standar-sistem, bagaimana cara mengetahuinya?
Anda tidak dapat "menyandikan" di Unicode. Dan tidak ada cara untuk otomatis menentukan encoding dari setiap String diberikan, tanpa informasi sebelumnya lainnya apapun.
Nicolas Dumazet
5
agar lebih jelas mungkin: Anda menyandikan titik kode Unicode ke dalam string byte dari rangkaian karakter menggunakan skema "penyandian" (utf- , iso- , big5, shift-jis, dll ...), dan Anda mendekode string byte dari set karakter ke Unicode. Anda tidak menyandikan bytestrings di Unicode. Anda tidak men-decode Unicode di bytestrings.
Nicolas Dumazet
13
@NicDunZ - penyandian itu sendiri (khususnya UTF-16) juga biasa disebut "Unicode". Benar atau salah, itulah hidup. Bahkan dalam. NET, lihat Encoding.Unicode - artinya UTF-16.
Marc Gravell
2
oh well, saya tidak tahu bahwa .NET sangat menyesatkan. Itu terlihat seperti kebiasaan buruk untuk dipelajari. Dan maaf @ Krebstar, itu bukan maksud saya (saya masih berpikir bahwa pertanyaan Anda yang diedit jauh lebih masuk akal sekarang daripada sebelumnya)
Nicolas Dumazet
1
@Nicdumz # 1: Ada cara untuk secara probabilistically menentukan pengkodean yang digunakan. Lihatlah apa yang dilakukan IE (dan sekarang juga FF dengan Tampilan - Pengodean Karakter - Deteksi otomatis) untuk itu: ia mencoba satu pengodean dan melihat apakah mungkin "ditulis dengan baik <tuliskan nama bahasa di sini>" atau ubah dan coba lagi . Ayo, ini bisa menyenangkan!
SnippyHolloW
Jawaban:
31
Lihat Utf8Checker itu adalah kelas sederhana yang melakukan hal ini dalam kode yang dikelola murni.
http://utf8checker.codeplex.com
Perhatikan: seperti yang sudah ditunjukkan "determing encoding" hanya masuk akal untuk byte stream. Jika Anda memiliki string, itu sudah dikodekan dari seseorang di sepanjang jalan yang sudah tahu atau menebak pengkodean untuk mendapatkan string di tempat pertama.
Jika string adalah decoding yang salah dilakukan dengan hanya 8-bit Encoding dan Anda memiliki Encoding yang digunakan untuk mendekodekannya, Anda biasanya bisa mendapatkan byte kembali tanpa korupsi.
Nyerguds
57
Kode di bawah ini memiliki fitur-fitur berikut:
Deteksi atau upaya deteksi UTF-7, UTF-8/16/32 (lahir, tanpa bom, sedikit & big endian)
Turun kembali ke codepage default lokal jika tidak ada pengkodean Unicode ditemukan.
Mendeteksi (dengan probabilitas tinggi) file unicode dengan BOM / tanda tangan hilang
Mencari charset = xyz dan encoding = xyz di dalam file untuk membantu menentukan encoding.
Untuk menyimpan pemrosesan, Anda dapat 'mencicipi' file (jumlah byte yang dapat ditentukan).
File teks yang disandikan dan didekodekan dikembalikan.
Solusi murni berbasis byte untuk efisiensi
Seperti yang dikatakan orang lain, tidak ada solusi yang sempurna (dan tentu saja kita tidak dapat dengan mudah membedakan antara berbagai pengkodean ASCII 8-bit yang diperluas yang digunakan di seluruh dunia), tetapi kita bisa mendapatkan 'cukup baik' terutama jika pengembang juga menghadirkan kepada pengguna daftar penyandian alternatif seperti yang ditunjukkan di sini: Apa penyandian paling umum dari setiap bahasa?
Daftar lengkap Pengkodean dapat ditemukan menggunakan Encoding.GetEncodings();
// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little// & big endian), and local default codepage, and potentially other codepages.// 'taster' = number of bytes to check of the file (to save processing). Higher// value is slower, but more reliable (especially UTF-8 with special characters// later on may appear to be ASCII initially). If taster = 0, then taster// becomes the length of the file (for maximum reliability). 'text' is simply// the string with the discovered encoding applied to the file.publicEncoding detectTextEncoding(string filename,outString text,int taster =1000){byte[] b =File.ReadAllBytes(filename);//////////////// First check the low hanging fruit by checking if a//////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)if(b.Length>=4&& b[0]==0x00&& b[1]==0x00&& b[2]==0xFE&& b[3]==0xFF){ text =Encoding.GetEncoding("utf-32BE").GetString(b,4, b.Length-4);returnEncoding.GetEncoding("utf-32BE");}// UTF-32, big-endian elseif(b.Length>=4&& b[0]==0xFF&& b[1]==0xFE&& b[2]==0x00&& b[3]==0x00){ text =Encoding.UTF32.GetString(b,4, b.Length-4);returnEncoding.UTF32;}// UTF-32, little-endianelseif(b.Length>=2&& b[0]==0xFE&& b[1]==0xFF){ text =Encoding.BigEndianUnicode.GetString(b,2, b.Length-2);returnEncoding.BigEndianUnicode;}// UTF-16, big-endianelseif(b.Length>=2&& b[0]==0xFF&& b[1]==0xFE){ text =Encoding.Unicode.GetString(b,2, b.Length-2);returnEncoding.Unicode;}// UTF-16, little-endianelseif(b.Length>=3&& b[0]==0xEF&& b[1]==0xBB&& b[2]==0xBF){ text =Encoding.UTF8.GetString(b,3, b.Length-3);returnEncoding.UTF8;}// UTF-8elseif(b.Length>=3&& b[0]==0x2b&& b[1]==0x2f&& b[2]==0x76){ text =Encoding.UTF7.GetString(b,3,b.Length-3);returnEncoding.UTF7;}// UTF-7//////////// If the code reaches here, no BOM/signature was found, so now//////////// we need to 'taste' the file to see if can manually discover//////////// the encoding. A high taster value is desired for UTF-8if(taster ==0|| taster > b.Length) taster = b.Length;// Taster size can't be bigger than the filesize obviously.// Some text files are encoded in UTF8, but have no BOM/signature. Hence// the below manually checks for a UTF8 pattern. This code is based off// the top answer at: /programming/6555015/check-for-invalid-utf8// For our purposes, an unnecessarily strict (and terser/slower)// implementation is shown at: /programming/1031645/how-to-detect-utf-8-in-plain-c// For the below, false positives should be exceedingly rare (and would// be either slightly malformed UTF-8 (which would suit our purposes// anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).int i =0;bool utf8 =false;while(i < taster -4){if(b[i]<=0x7F){ i +=1;continue;}// If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.if(b[i]>=0xC2&& b[i]<=0xDF&& b[i +1]>=0x80&& b[i +1]<0xC0){ i +=2; utf8 =true;continue;}if(b[i]>=0xE0&& b[i]<=0xF0&& b[i +1]>=0x80&& b[i +1]<0xC0&& b[i +2]>=0x80&& b[i +2]<0xC0){ i +=3; utf8 =true;continue;}if(b[i]>=0xF0&& b[i]<=0xF4&& b[i +1]>=0x80&& b[i +1]<0xC0&& b[i +2]>=0x80&& b[i +2]<0xC0&& b[i +3]>=0x80&& b[i +3]<0xC0){ i +=4; utf8 =true;continue;}
utf8 =false;break;}if(utf8 ==true){
text =Encoding.UTF8.GetString(b);returnEncoding.UTF8;}// The next check is a heuristic attempt to detect UTF-16 without a BOM.// We simply look for zeroes in odd or even byte places, and if a certain// threshold is reached, the code is 'probably' UF-16. double threshold =0.1;// proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%int count =0;for(int n =0; n < taster; n +=2)if(b[n]==0) count++;if(((double)count)/ taster > threshold){ text =Encoding.BigEndianUnicode.GetString(b);returnEncoding.BigEndianUnicode;}
count =0;for(int n =1; n < taster; n +=2)if(b[n]==0) count++;if(((double)count)/ taster > threshold){ text =Encoding.Unicode.GetString(b);returnEncoding.Unicode;}// (little-endian)// Finally, a long shot - let's see if we can find "charset=xyz" or// "encoding=xyz" to identify the encoding:for(int n =0; n < taster-9; n++){if(((b[n +0]=='c'|| b[n +0]=='C')&&(b[n +1]=='h'|| b[n +1]=='H')&&(b[n +2]=='a'|| b[n +2]=='A')&&(b[n +3]=='r'|| b[n +3]=='R')&&(b[n +4]=='s'|| b[n +4]=='S')&&(b[n +5]=='e'|| b[n +5]=='E')&&(b[n +6]=='t'|| b[n +6]=='T')&&(b[n +7]=='='))||((b[n +0]=='e'|| b[n +0]=='E')&&(b[n +1]=='n'|| b[n +1]=='N')&&(b[n +2]=='c'|| b[n +2]=='C')&&(b[n +3]=='o'|| b[n +3]=='O')&&(b[n +4]=='d'|| b[n +4]=='D')&&(b[n +5]=='i'|| b[n +5]=='I')&&(b[n +6]=='n'|| b[n +6]=='N')&&(b[n +7]=='g'|| b[n +7]=='G')&&(b[n +8]=='='))){if(b[n +0]=='c'|| b[n +0]=='C') n +=8;else n +=9;if(b[n]=='"'|| b[n]=='\'') n++;int oldn = n;while(n < taster &&(b[n]=='_'|| b[n]=='-'||(b[n]>='0'&& b[n]<='9')||(b[n]>='a'&& b[n]<='z')||(b[n]>='A'&& b[n]<='Z'))){ n++;}byte[] nb =newbyte[n-oldn];Array.Copy(b, oldn, nb,0, n-oldn);try{string internalEnc =Encoding.ASCII.GetString(nb);
text =Encoding.GetEncoding(internalEnc).GetString(b);returnEncoding.GetEncoding(internalEnc);}catch{break;}// If C# doesn't recognize the name of the encoding, break.}}// If all else fails, the encoding is probably (though certainly not// definitely) the user's local codepage! One might present to the user a// list of alternative encodings as shown here: /programming/8509339/what-is-the-most-common-encoding-of-each-language// A full list can be found using Encoding.GetEncodings();
text =Encoding.Default.GetString(b);returnEncoding.Default;}
Ini berfungsi untuk file .eml Cyrillic (dan mungkin semua lainnya) (dari header charset mail)
Nime Cloud
UTF-7 tidak dapat diterjemahkan secara naif, sebenarnya; pembukaan penuhnya lebih panjang, dan termasuk dua bit dari karakter pertama. Sistem .Net tampaknya tidak memiliki dukungan sama sekali untuk sistem pembukaan UTF7.
Nyergud
Bekerja untuk saya ketika tidak ada metode lain yang saya periksa tidak membantu! Terima kasih Dan.
Tejasvi Hegde
Terima kasih atas solusinya. Saya menggunakannya untuk menentukan encoding pada file dari sumber yang sama sekali berbeda. Apa yang saya temukan adalah bahwa jika saya menggunakan nilai pencicip yang terlalu rendah, hasilnya mungkin salah. (misalnya kode mengembalikan Encoding. Kerusakan untuk file UTF8, meskipun saya menggunakan b.Length / 10 sebagai pencicip saya.) Jadi saya bertanya-tanya, apa argumen untuk menggunakan pencicip yang kurang dari b.Length? Tampaknya saya hanya dapat menyimpulkan bahwa Encoding.Default dapat diterima jika dan hanya jika saya telah memindai seluruh file.
Sean
@Sean: Ini untuk saat kecepatan lebih penting daripada akurasi, terutama untuk file yang mungkin berukuran puluhan atau ratusan megabita. Dalam pengalaman saya, bahkan nilai pengecap rendah dapat menghasilkan hasil yang benar ~ 99,9% dari waktu. Pengalaman Anda mungkin berbeda.
Dan W
33
Itu tergantung dari mana string 'berasal'. String .NET adalah Unicode (UTF-16). Satu-satunya cara itu bisa berbeda jika Anda, katakanlah, membaca data dari database menjadi array byte.
Itu berasal dari C ++ aplikasi-Unicode non .. Artikel CodeProject tampaknya sedikit terlalu rumit, namun tampaknya untuk melakukan apa yang ingin saya lakukan .. Terima kasih ..
krebstar
18
Saya tahu ini agak terlambat - tetapi harus jelas:
Sebuah string tidak benar-benar memiliki pengodean ... di .NET the a string adalah kumpulan dari objek char. Intinya, jika itu adalah string, itu sudah diterjemahkan.
Namun, jika Anda membaca konten file, yang terbuat dari byte, dan ingin mengubahnya menjadi string, maka pengkodean file harus digunakan.
.NET mencakup kelas penyandian dan pengodean ulang untuk: ASCII, UTF7, UTF8, UTF32 dan banyak lagi.
Sebagian besar pengkodean ini mengandung tanda byte-order tertentu yang dapat digunakan untuk membedakan jenis pengkodean yang digunakan.
.NET class System.IO.StreamReader dapat menentukan pengkodean yang digunakan dalam aliran, dengan membaca tanda-tanda byte-order;
Berikut ini sebuah contoh:
/// <summary>/// return the detected encoding and the contents of the file./// </summary>/// <param name="fileName"></param>/// <param name="contents"></param>/// <returns></returns>publicstaticEncodingDetectEncoding(String fileName,outString contents){// open the file with the stream-reader:
using (StreamReader reader =newStreamReader(fileName,true)){// read the contents of the file into a string
contents = reader.ReadToEnd();// return the encoding.return reader.CurrentEncoding;}}
Ini tidak akan berfungsi untuk mendeteksi UTF 16 tanpa BOM. Itu juga tidak akan kembali ke codepage default lokal pengguna jika gagal mendeteksi encoding unicode. Anda dapat memperbaiki yang terakhir dengan menambahkan Encoding.Defaultsebagai parameter StreamReader, tetapi kemudian kode tidak akan mendeteksi UTF8 tanpa BOM.
Dan W
1
@DanW: Apakah UTF-16 tanpa BOM sebenarnya pernah dilakukan? Saya tidak akan pernah menggunakannya; itu pasti akan menjadi bencana untuk membuka banyak hal.
Kelas C # -hanya ini hanya menggunakan BOM jika ada, mencoba mendeteksi secara otomatis kemungkinan penyandian unicode sebaliknya, dan turun kembali jika tidak ada penyandian Unicode yang mungkin atau mungkin.
Kedengarannya seperti UTF8Checker yang dirujuk di atas melakukan sesuatu yang serupa, tapi saya pikir ini sedikit lebih luas dalam cakupan - bukan hanya UTF8, itu juga memeriksa kemungkinan penyandian Unicode lainnya (UTF-16 LE atau BE) yang mungkin hilang BOM.
ini harus lebih tinggi, ini memberikan solusi yang sangat sederhana: biarkan orang lain melakukan pekerjaan: D
buddybubble
Perpustakaan ini adalah GPL
A
Apakah itu? Saya melihat lisensi MIT dan menggunakan komponen triple-berlisensi (UDE) salah satunya adalah MPL. Saya sudah mencoba menentukan apakah UDE bermasalah untuk produk berpemilik, jadi jika Anda memiliki lebih banyak info, itu akan sangat dihargai.
Simon Woods
5
Solusi saya adalah menggunakan barang bawaan dengan beberapa fallback.
Saya memilih strategi dari jawaban untuk pertanyaan serupa lainnya di stackoverflow tetapi saya tidak dapat menemukannya sekarang.
Ia memeriksa BOM terlebih dahulu menggunakan logika bawaan di StreamReader, jika ada BOM, pengkodean akan menjadi sesuatu selain Encoding.Default , dan kami harus percaya hasilnya.
Jika tidak, ia memeriksa apakah urutan byte adalah urutan UTF-8 yang valid. jika ya, ia akan menebak UTF-8 sebagai encoding, dan jika tidak, lagi, encoding ASCII default akan menjadi hasilnya.
Catatan: ini adalah percobaan untuk melihat bagaimana pengkodean UTF-8 bekerja secara internal. Solusi yang ditawarkan oleh vilicvane , untuk menggunakan UTF8Encodingobjek yang diinisialisasi untuk melempar pengecualian pada kegagalan decoding, jauh lebih sederhana, dan pada dasarnya melakukan hal yang sama.
Saya menulis kode ini untuk membedakan antara UTF-8 dan Windows-1252. Seharusnya tidak digunakan untuk file teks raksasa, karena memuat semuanya ke dalam memori dan memindai sepenuhnya. Saya menggunakannya untuk file subtitle .srt, hanya untuk dapat menyimpannya kembali dalam pengkodean di mana mereka dimuat.
Pengkodean yang diberikan ke fungsi sebagai ref haruslah pengkodean mundur 8-bit untuk digunakan seandainya file terdeteksi sebagai tidak valid UTF-8; umumnya, pada sistem Windows, ini akan menjadi Windows-1252. Ini tidak melakukan sesuatu yang mewah seperti memeriksa rentang ascii yang sebenarnya sebenarnya, dan tidak mendeteksi UTF-16 bahkan pada tanda urutan byte.
Pada dasarnya, rentang bit byte pertama menentukan berapa banyak setelah itu merupakan bagian dari entitas UTF-8. Bytes ini selalu dalam kisaran bit yang sama.
/// <summary>/// Reads a text file, and detects whether its encoding is valid UTF-8 or ascii./// If not, decodes the text using the given fallback encoding./// Bit-wise mechanism for detecting valid UTF-8 based on/// https://ianthehenry.com/2015/1/17/decoding-utf-8//// </summary>/// <param name="docBytes">The bytes read from the file.</param>/// <param name="encoding">The default encoding to use as fallback if the text is detected not to be pure ascii or UTF-8 compliant. This ref parameter is changed to the detected encoding.</param>/// <returns>The contents of the read file, as String.</returns>publicstaticStringReadFileAndGetEncoding(Byte[] docBytes,refEncoding encoding){if(encoding ==null)
encoding =Encoding.GetEncoding(1252);Int32 len = docBytes.Length;// byte order mark for utf-8. Easiest way of detecting encoding.if(len >3&& docBytes[0]==0xEF&& docBytes[1]==0xBB&& docBytes[2]==0xBF){
encoding =new UTF8Encoding(true);// Note that even when initialising an encoding to have// a BOM, it does not cut it off the front of the input.return encoding.GetString(docBytes,3, len -3);}Boolean isPureAscii =true;Boolean isUtf8Valid =true;for(Int32 i =0; i < len;++i){Int32 skip =TestUtf8(docBytes, i);if(skip ==0)continue;if(isPureAscii)
isPureAscii =false;if(skip <0){
isUtf8Valid =false;// if invalid utf8 is detected, there's no sense in going on.break;}
i += skip;}if(isPureAscii)
encoding =newASCIIEncoding();// pure 7-bit ascii.elseif(isUtf8Valid)
encoding =new UTF8Encoding(false);// else, retain given encoding. This should be an 8-bit encoding like Windows-1252.return encoding.GetString(docBytes);}/// <summary>/// Tests if the bytes following the given offset are UTF-8 valid, and/// returns the amount of bytes to skip ahead to do the next read if it is./// If the text is not UTF-8 valid it returns -1./// </summary>/// <param name="binFile">Byte array to test</param>/// <param name="offset">Offset in the byte array to test.</param>/// <returns>The amount of bytes to skip ahead for the next read, or -1 if the byte sequence wasn't valid UTF-8</returns>publicstaticInt32TestUtf8(Byte[] binFile,Int32 offset){// 7 bytes (so 6 added bytes) is the maximum the UTF-8 design could support,// but in reality it only goes up to 3, meaning the full amount is 4.constInt32 maxUtf8Length =4;Byte current = binFile[offset];if((current &0x80)==0)return0;// valid 7-bit ascii. Added length is 0 bytes.Int32 len = binFile.Length;for(Int32 addedlength =1; addedlength < maxUtf8Length;++addedlength){Int32 fullmask =0x80;Int32 testmask =0;// This code adds shifted bits to get the desired full mask.// If the full mask is [111]0 0000, then test mask will be [110]0 0000. Since this is// effectively always the previous step in the iteration I just store it each time.for(Int32 i =0; i <= addedlength;++i){
testmask = fullmask;
fullmask +=(0x80>>(i+1));}// figure out bit masks from levelif((current & fullmask)== testmask){if(offset + addedlength >= len)return-1;// Lookahead. Pattern of any following bytes is always 10xxxxxxfor(Int32 i =1; i <= addedlength;++i){if((binFile[offset + i]&0xC0)!=0x80)return-1;}return addedlength;}}// Value is greater than the maximum allowed for utf8. Deemed invalid.return-1;}
Juga tidak ada elsepernyataan terakhir setelahnya if ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... }. Saya kira bahwa elsekasus akan utf8 tidak valid: isUtf8Valid = false;. Maukah kamu?
Hal
@ ya Ah, benar ... Saya sejak memperbarui kode saya sendiri dengan sistem yang lebih umum (dan lebih maju) yang menggunakan loop yang naik hingga 3 tetapi secara teknis dapat diubah untuk loop lebih lanjut (spesifikasi agak tidak jelas tentang itu ; mungkin untuk memperluas UTF-8 hingga 6 byte tambahan saya pikir, tetapi hanya 3 yang digunakan dalam implementasi saat ini), jadi saya tidak memperbarui kode ini.
Nyerguds
@hal Diperbarui untuk solusi baru saya. Prinsipnya tetap sama, tetapi topeng bit dibuat dan diperiksa dalam satu lingkaran daripada semua yang dituliskan secara eksplisit dalam kode.
CharsetDetector berisi beberapa metode pendeteksian pengkodean statis:
CharsetDetector.DetectFromFile()
CharsetDetector.DetectFromStream()
CharsetDetector.DetectFromBytes()
hasil yang terdeteksi di kelas DetectionResultmemiliki atribut Detectedyang merupakan instance dari kelas DetectionDetaildengan atribut di bawah ini:
EncodingName
Encoding
Confidence
di bawah ini adalah contoh untuk menunjukkan penggunaan:
// Program.cs
using System;
using System.Text;
using UtfUnknown;
namespace ConsoleExample{publicclassProgram{publicstaticvoidMain(string[] args){string filename =@"E:\new-file.txt";DetectDemo(filename);}/// <summary>/// Command line example: detect the encoding of the given file./// </summary>/// <param name="filename">a filename</param>publicstaticvoidDetectDemo(string filename){// Detect from FileDetectionResult result =CharsetDetector.DetectFromFile(filename);// Get the best DetectionDetectionDetail resultDetected = result.Detected;// detected result may be null.if(resultDetected !=null){// Get the alias of the found encodingstring encodingName = resultDetected.EncodingName;// Get the System.Text.Encoding of the found encoding (can be null if not available)Encoding encoding = resultDetected.Encoding;// Get the confidence of the found encoding (between 0 and 1)float confidence = resultDetected.Confidence;if(encoding !=null){Console.WriteLine($"Detection completed: {filename}");Console.WriteLine($"EncodingWebName: {encoding.WebName}{Environment.NewLine}Confidence: {confidence}");}else{Console.WriteLine($"Detection completed: {filename}");Console.WriteLine($"(Encoding is null){Environment.NewLine}EncodingName: {encodingName}{Environment.NewLine}Confidence: {confidence}");}}else{Console.WriteLine($"Detection failed: {filename}");}}}}
Jawaban:
Lihat Utf8Checker itu adalah kelas sederhana yang melakukan hal ini dalam kode yang dikelola murni. http://utf8checker.codeplex.com
Perhatikan: seperti yang sudah ditunjukkan "determing encoding" hanya masuk akal untuk byte stream. Jika Anda memiliki string, itu sudah dikodekan dari seseorang di sepanjang jalan yang sudah tahu atau menebak pengkodean untuk mendapatkan string di tempat pertama.
sumber
Kode di bawah ini memiliki fitur-fitur berikut:
Seperti yang dikatakan orang lain, tidak ada solusi yang sempurna (dan tentu saja kita tidak dapat dengan mudah membedakan antara berbagai pengkodean ASCII 8-bit yang diperluas yang digunakan di seluruh dunia), tetapi kita bisa mendapatkan 'cukup baik' terutama jika pengembang juga menghadirkan kepada pengguna daftar penyandian alternatif seperti yang ditunjukkan di sini: Apa penyandian paling umum dari setiap bahasa?
Daftar lengkap Pengkodean dapat ditemukan menggunakan
Encoding.GetEncodings();
sumber
Itu tergantung dari mana string 'berasal'. String .NET adalah Unicode (UTF-16). Satu-satunya cara itu bisa berbeda jika Anda, katakanlah, membaca data dari database menjadi array byte.
Artikel CodeProject ini mungkin menarik: Deteksi Pengkodean untuk teks masuk dan keluar
String Jon Skeet dalam C # dan .NET adalah penjelasan yang bagus tentang string .NET.
sumber
Saya tahu ini agak terlambat - tetapi harus jelas:
Sebuah string tidak benar-benar memiliki pengodean ... di .NET the a string adalah kumpulan dari objek char. Intinya, jika itu adalah string, itu sudah diterjemahkan.
Namun, jika Anda membaca konten file, yang terbuat dari byte, dan ingin mengubahnya menjadi string, maka pengkodean file harus digunakan.
.NET mencakup kelas penyandian dan pengodean ulang untuk: ASCII, UTF7, UTF8, UTF32 dan banyak lagi.
Sebagian besar pengkodean ini mengandung tanda byte-order tertentu yang dapat digunakan untuk membedakan jenis pengkodean yang digunakan.
.NET class System.IO.StreamReader dapat menentukan pengkodean yang digunakan dalam aliran, dengan membaca tanda-tanda byte-order;
Berikut ini sebuah contoh:
sumber
Encoding.Default
sebagai parameter StreamReader, tetapi kemudian kode tidak akan mendeteksi UTF8 tanpa BOM.Opsi lain, terlambat datang, maaf:
http://www.architectshack.com/TextFileEncodingDetector.ashx
Kelas C # -hanya ini hanya menggunakan BOM jika ada, mencoba mendeteksi secara otomatis kemungkinan penyandian unicode sebaliknya, dan turun kembali jika tidak ada penyandian Unicode yang mungkin atau mungkin.
Kedengarannya seperti UTF8Checker yang dirujuk di atas melakukan sesuatu yang serupa, tapi saya pikir ini sedikit lebih luas dalam cakupan - bukan hanya UTF8, itu juga memeriksa kemungkinan penyandian Unicode lainnya (UTF-16 LE atau BE) yang mungkin hilang BOM.
Semoga ini bisa membantu seseorang!
sumber
Paket SimpleHelpers.FileEncoding Nuget membungkus porta C # dari Mozilla Universal Charset Detector menjadi API sederhana:
sumber
Solusi saya adalah menggunakan barang bawaan dengan beberapa fallback.
Saya memilih strategi dari jawaban untuk pertanyaan serupa lainnya di stackoverflow tetapi saya tidak dapat menemukannya sekarang.
Ia memeriksa BOM terlebih dahulu menggunakan logika bawaan di StreamReader, jika ada BOM, pengkodean akan menjadi sesuatu selain
Encoding.Default
, dan kami harus percaya hasilnya.Jika tidak, ia memeriksa apakah urutan byte adalah urutan UTF-8 yang valid. jika ya, ia akan menebak UTF-8 sebagai encoding, dan jika tidak, lagi, encoding ASCII default akan menjadi hasilnya.
sumber
Catatan: ini adalah percobaan untuk melihat bagaimana pengkodean UTF-8 bekerja secara internal. Solusi yang ditawarkan oleh vilicvane , untuk menggunakan
UTF8Encoding
objek yang diinisialisasi untuk melempar pengecualian pada kegagalan decoding, jauh lebih sederhana, dan pada dasarnya melakukan hal yang sama.Saya menulis kode ini untuk membedakan antara UTF-8 dan Windows-1252. Seharusnya tidak digunakan untuk file teks raksasa, karena memuat semuanya ke dalam memori dan memindai sepenuhnya. Saya menggunakannya untuk file subtitle .srt, hanya untuk dapat menyimpannya kembali dalam pengkodean di mana mereka dimuat.
Pengkodean yang diberikan ke fungsi sebagai ref haruslah pengkodean mundur 8-bit untuk digunakan seandainya file terdeteksi sebagai tidak valid UTF-8; umumnya, pada sistem Windows, ini akan menjadi Windows-1252. Ini tidak melakukan sesuatu yang mewah seperti memeriksa rentang ascii yang sebenarnya sebenarnya, dan tidak mendeteksi UTF-16 bahkan pada tanda urutan byte.
Teori di balik deteksi bitwise dapat ditemukan di sini: https://ianthehenry.com/2015/1/17/decoding-utf-8/
Pada dasarnya, rentang bit byte pertama menentukan berapa banyak setelah itu merupakan bagian dari entitas UTF-8. Bytes ini selalu dalam kisaran bit yang sama.
sumber
else
pernyataan terakhir setelahnyaif ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... }
. Saya kira bahwaelse
kasus akan utf8 tidak valid:isUtf8Valid = false;
. Maukah kamu?Saya menemukan perpustakaan baru di GitHub: CharsetDetector / UTF-unknown
itu juga port dari Mozilla Universal Charset Detector berdasarkan repositori lain.
CharsetDetector / UTF-unknown memiliki kelas bernama
CharsetDetector
.CharsetDetector
berisi beberapa metode pendeteksian pengkodean statis:CharsetDetector.DetectFromFile()
CharsetDetector.DetectFromStream()
CharsetDetector.DetectFromBytes()
hasil yang terdeteksi di kelas
DetectionResult
memiliki atributDetected
yang merupakan instance dari kelasDetectionDetail
dengan atribut di bawah ini:EncodingName
Encoding
Confidence
di bawah ini adalah contoh untuk menunjukkan penggunaan:
tangkapan layar hasil contoh:
sumber