Existe-t-il un moyen de déterminer l'encodage d'une chaîne de caractères en C# ?
Disons que j'ai un nom de fichier, mais je ne sais pas s'il est encodé en Unicode UTF-16 ou l'encodage par défaut du système, comment le savoir ?
Existe-t-il un moyen de déterminer l'encodage d'une chaîne de caractères en C# ?
Disons que j'ai un nom de fichier, mais je ne sais pas s'il est encodé en Unicode UTF-16 ou l'encodage par défaut du système, comment le savoir ?
Le code ci-dessous présente les caractéristiques suivantes :
Comme d'autres l'ont dit, aucune solution ne peut être parfaite (et il est certainement difficile de faire la différence entre les divers codages ASCII étendus à 8 bits utilisés dans le monde), mais nous pouvons obtenir une solution "suffisamment bonne", en particulier si le développeur présente également à l'utilisateur une liste de codages alternatifs, comme indiqué ici : Quel est le codage le plus courant pour chaque langue ?
Une liste complète des encodages est disponible à l'adresse suivante Encoding.GetEncodings();
// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little
// & big endian), and local default codepage, and potentially other codepages.
// 'taster' = number of bytes to check of the file (to save processing). Higher
// value is slower, but more reliable (especially UTF-8 with special characters
// later on may appear to be ASCII initially). If taster = 0, then taster
// becomes the length of the file (for maximum reliability). 'text' is simply
// the string with the discovered encoding applied to the file.
public Encoding detectTextEncoding(string filename, out String text, int taster = 1000)
{
byte[] b = File.ReadAllBytes(filename);
//////////////// First check the low hanging fruit by checking if a
//////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)
if (b.Length >= 4 && b[0] == 0x00 && b[1] == 0x00 && b[2] == 0xFE && b[3] == 0xFF) { text = Encoding.GetEncoding("utf-32BE").GetString(b, 4, b.Length - 4); return Encoding.GetEncoding("utf-32BE"); } // UTF-32, big-endian
else if (b.Length >= 4 && b[0] == 0xFF && b[1] == 0xFE && b[2] == 0x00 && b[3] == 0x00) { text = Encoding.UTF32.GetString(b, 4, b.Length - 4); return Encoding.UTF32; } // UTF-32, little-endian
else if (b.Length >= 2 && b[0] == 0xFE && b[1] == 0xFF) { text = Encoding.BigEndianUnicode.GetString(b, 2, b.Length - 2); return Encoding.BigEndianUnicode; } // UTF-16, big-endian
else if (b.Length >= 2 && b[0] == 0xFF && b[1] == 0xFE) { text = Encoding.Unicode.GetString(b, 2, b.Length - 2); return Encoding.Unicode; } // UTF-16, little-endian
else if (b.Length >= 3 && b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF) { text = Encoding.UTF8.GetString(b, 3, b.Length - 3); return Encoding.UTF8; } // UTF-8
else if (b.Length >= 3 && b[0] == 0x2b && b[1] == 0x2f && b[2] == 0x76) { text = Encoding.UTF7.GetString(b,3,b.Length-3); return Encoding.UTF7; } // UTF-7
//////////// If the code reaches here, no BOM/signature was found, so now
//////////// we need to 'taste' the file to see if can manually discover
//////////// the encoding. A high taster value is desired for UTF-8
if (taster == 0 || taster > b.Length) taster = b.Length; // Taster size can't be bigger than the filesize obviously.
// Some text files are encoded in UTF8, but have no BOM/signature. Hence
// the below manually checks for a UTF8 pattern. This code is based off
// the top answer at: https://stackoverflow.com/questions/6555015/check-for-invalid-utf8
// For our purposes, an unnecessarily strict (and terser/slower)
// implementation is shown at: https://stackoverflow.com/questions/1031645/how-to-detect-utf-8-in-plain-c
// For the below, false positives should be exceedingly rare (and would
// be either slightly malformed UTF-8 (which would suit our purposes
// anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).
int i = 0;
bool utf8 = false;
while (i < taster - 4)
{
if (b[i] <= 0x7F) { i += 1; continue; } // If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.
if (b[i] >= 0xC2 && b[i] < 0xE0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0) { i += 2; utf8 = true; continue; }
if (b[i] >= 0xE0 && b[i] < 0xF0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0) { i += 3; utf8 = true; continue; }
if (b[i] >= 0xF0 && b[i] < 0xF5 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0 && b[i + 3] >= 0x80 && b[i + 3] < 0xC0) { i += 4; utf8 = true; continue; }
utf8 = false; break;
}
if (utf8 == true) {
text = Encoding.UTF8.GetString(b);
return Encoding.UTF8;
}
// The next check is a heuristic attempt to detect UTF-16 without a BOM.
// We simply look for zeroes in odd or even byte places, and if a certain
// threshold is reached, the code is 'probably' UF-16.
double threshold = 0.1; // proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%
int count = 0;
for (int n = 0; n < taster; n += 2) if (b[n] == 0) count++;
if (((double)count) / taster > threshold) { text = Encoding.BigEndianUnicode.GetString(b); return Encoding.BigEndianUnicode; }
count = 0;
for (int n = 1; n < taster; n += 2) if (b[n] == 0) count++;
if (((double)count) / taster > threshold) { text = Encoding.Unicode.GetString(b); return Encoding.Unicode; } // (little-endian)
// Finally, a long shot - let's see if we can find "charset=xyz" or
// "encoding=xyz" to identify the encoding:
for (int n = 0; n < taster-9; n++)
{
if (
((b[n + 0] == 'c' || b[n + 0] == 'C') && (b[n + 1] == 'h' || b[n + 1] == 'H') && (b[n + 2] == 'a' || b[n + 2] == 'A') && (b[n + 3] == 'r' || b[n + 3] == 'R') && (b[n + 4] == 's' || b[n + 4] == 'S') && (b[n + 5] == 'e' || b[n + 5] == 'E') && (b[n + 6] == 't' || b[n + 6] == 'T') && (b[n + 7] == '=')) ||
((b[n + 0] == 'e' || b[n + 0] == 'E') && (b[n + 1] == 'n' || b[n + 1] == 'N') && (b[n + 2] == 'c' || b[n + 2] == 'C') && (b[n + 3] == 'o' || b[n + 3] == 'O') && (b[n + 4] == 'd' || b[n + 4] == 'D') && (b[n + 5] == 'i' || b[n + 5] == 'I') && (b[n + 6] == 'n' || b[n + 6] == 'N') && (b[n + 7] == 'g' || b[n + 7] == 'G') && (b[n + 8] == '='))
)
{
if (b[n + 0] == 'c' || b[n + 0] == 'C') n += 8; else n += 9;
if (b[n] == '"' || b[n] == '\'') n++;
int oldn = n;
while (n < taster && (b[n] == '_' || b[n] == '-' || (b[n] >= '0' && b[n] <= '9') || (b[n] >= 'a' && b[n] <= 'z') || (b[n] >= 'A' && b[n] <= 'Z')))
{ n++; }
byte[] nb = new byte[n-oldn];
Array.Copy(b, oldn, nb, 0, n-oldn);
try {
string internalEnc = Encoding.ASCII.GetString(nb);
text = Encoding.GetEncoding(internalEnc).GetString(b);
return Encoding.GetEncoding(internalEnc);
}
catch { break; } // If C# doesn't recognize the name of the encoding, break.
}
}
// If all else fails, the encoding is probably (though certainly not
// definitely) the user's local codepage! One might present to the user a
// list of alternative encodings as shown here: https://stackoverflow.com/questions/8509339/what-is-the-most-common-encoding-of-each-language
// A full list can be found using Encoding.GetEncodings();
text = Encoding.Default.GetString(b);
return Encoding.Default;
}
Cela fonctionne pour les fichiers .eml cyrilliques (et probablement tous les autres) (à partir de l'en-tête charset du courrier).
L'UTF-7 ne peut pas être décodé aussi naïvement, en fait ; son préambule complet est plus long et comprend deux bits du premier caractère. Le système .Net ne semble pas prendre en charge le système de préambule de l'UTF7.
Cela a fonctionné pour moi alors qu'aucune des autres méthodes que j'ai vérifiées ne m'a aidé ! Merci Dan.
Cela dépend de l'origine de la chaîne. Une chaîne .NET est Unicode (UTF-16). La seule possibilité de différence serait de lire les données d'une base de données dans un tableau d'octets.
Cet article de CodeProject pourrait être intéressant : Détecter l'encodage du texte entrant et sortant
Jon Skeet's Chaînes de caractères en C# et .NET est une excellente explication des chaînes de caractères .NET.
Regardez Utf8Checker, c'est une classe simple qui fait exactement cela en code géré pur. http://utf8checker.codeplex.com
Remarque : comme nous l'avons déjà souligné, la "détermination de l'encodage" n'a de sens que pour les flux d'octets. Si vous avez une chaîne de caractères, elle est déjà encodée par quelqu'un qui, en cours de route, connaissait ou devinait déjà l'encodage pour obtenir la chaîne en premier lieu.
Je sais que c'est un peu tard, mais je tiens à ce que ce soit clair :
Une chaîne n'a pas vraiment d'encodage... dans .NET, une chaîne est une collection d'objets char. En fait, s'il s'agit d'une chaîne, elle a déjà été décodée.
Toutefois, si vous lisez le contenu d'un fichier, qui est constitué d'octets, et que vous souhaitez le convertir en une chaîne de caractères, vous devez utiliser l'encodage du fichier.
NET comprend des classes d'encodage et de décodage pour : ASCII, UTF7, UTF8, UTF32 et plus encore.
La plupart de ces encodages contiennent certaines marques d'ordre des octets qui peuvent être utilisées pour distinguer le type d'encodage utilisé.
La classe .NET System.IO.StreamReader est capable de déterminer le codage utilisé dans un flux, en lisant ces marques d'ordre des octets ;
En voici un exemple :
/// <summary>
/// return the detected encoding and the contents of the file.
/// </summary>
/// <param name="fileName"></param>
/// <param name="contents"></param>
/// <returns></returns>
public static Encoding DetectEncoding(String fileName, out String contents)
{
// open the file with the stream-reader:
using (StreamReader reader = new StreamReader(fileName, true))
{
// read the contents of the file into a string
contents = reader.ReadToEnd();
// return the encoding.
return reader.CurrentEncoding;
}
}
Cela ne fonctionnera pas pour détecter l'UTF 16 sans le BOM. Il ne se rabattra pas non plus sur le codepage local par défaut de l'utilisateur s'il ne parvient pas à détecter un codage unicode. Vous pouvez corriger ce problème en ajoutant Encoding.Default
en tant que paramètre StreamReader, mais le code ne détectera pas UTF8 sans le BOM.
Une autre option, très tardive, désolée :
http://www.architectshack.com/TextFileEncodingDetector.ashx
Cette petite classe en C# uniquement utilise les BOMS s'ils sont présents, tente d'auto-détecter les encodages Unicode possibles dans le cas contraire, et revient en arrière si aucun des encodages Unicode n'est possible ou probable.
Il semblerait que UTF8Checker mentionné ci-dessus fasse quelque chose de similaire, mais je pense que son champ d'application est légèrement plus large - au lieu de se limiter à UTF8, il vérifie également les autres encodages Unicode possibles (UTF-16 LE ou BE) qui pourraient manquer d'une nomenclature.
J'espère que cela aidera quelqu'un !
Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.
0 votes
On ne peut pas "encoder" en Unicode. Et il n'existe aucun moyen de déterminer automatiquement l'encodage de tous une chaîne de caractères donnée, sans aucune autre information préalable.
0 votes
Vous ne pouvez pas "encoder" en Unicode" - si nous interprétons Unicode comme UTF-16 (ou tout autre UTF* spécifique), il s'agit alors d'une manière parfaitement valide d'écrire des points de code comme une séquence d'octets (=encodage).
6 votes
Pour être plus clair peut-être : vous coder Les points de code Unicode sont transformés en chaînes d'octets d'un jeu de caractères à l'aide d'un schéma d'"encodage" (utf- , iso- , big5, shift-jis, etc...), et vous décoder les chaînes d'octets d'un jeu de caractères à Unicode. Vous n'encodez pas les chaînes d'octets en Unicode. On ne décode pas l'Unicode en chaînes d'octets.
0 votes
Merci NicDumZ, tu viens de me faire me sentir vraiment bête :S
14 votes
@NicDunZ - l'encodage lui-même (en particulier UTF-16) est aussi communément appelé "Unicode". A tort ou à raison, c'est la vie. Même dans .NET, regardez Encoding.Unicode - ce qui signifie UTF-16.
2 votes
Je ne savais pas que .NET était si trompeur. C'est une très mauvaise habitude à prendre. Et désolé @krebstar, ce n'était pas mon intention (je pense toujours que votre question modifiée a beaucoup plus de sens maintenant qu'avant).
1 votes
@Nicdumz #1 : Il y a un moyen de déterminer de manière probabiliste quel encodage utiliser. Regardez ce que fait IE (et maintenant aussi FF avec View - Character Encoding - Auto-detect) pour cela : il essaie un encodage et voit si c'est possiblement "bien écrit <insérez un nom de langue ici>" ou le change et essaie à nouveau. Allez, ça peut être amusant !
0 votes
Une solution finale avec un code source complet et un exemple de fonctionnement ?
0 votes
Cette question n'a pas de sens telle qu'elle est rédigée. En .Net, une fois que vous avez un objet chaîne, ses caractères sont des caractères Unicode dans la plage U+0000 à U+FFFF. Il n'y a plus de "codage", au sens où l'entend la question. On peut également dire que l'encodage des chaînes de caractères de .Net est le suivant toujours UTF-16. Tout "encodage" est traité par le code qui a converti le bytestream d'origine en objet chaîne .Net.
0 votes
@NicolasDumazet : Ne blâmez pas .NET. Ne blâmez même pas Windows (qui est à l'origine de cet usage). Windows a été à peu près le premier utilisateur à grande échelle d'Unicode. Windows (pas Windows 3.x ou 9x - Windows NT) utilise "Unicode" depuis sa naissance. NT a été développé en même temps qu'Unicode. À l'époque, l'ensemble de l'Unicode tenait sur 16 bits et il existait essentiellement deux types d'encodage, little ou big-endian. Les systèmes d'exploitation Windows pré-NT utilisaient des caractères de 8 bits, tandis que NT utilisait nativement l'"Unicode" de 16 bits. C'est de là que vient le nom