Półtora roku temu wg wyliczeń Google użycie kodowania Unicode było porównywalne z innymi systemami kodowania (ASCII oraz ISO/CP).
Obecnie wykorzystanie Unicode w Sieci dochodzi powoli do 50%, gdy ASCII oraz ISO/CP mają po około 20 % udział. Jest to dość śmieszne, ponieważ nie ma nic bardziej oczywistego dla Internetu jak Unicode, którego historia sięga aż 1991 roku (1.0).
Pamiętam, gdy nie lada problemem stron internetowych było właśnie kodowanie. Microsoft trzymał się dla Polaków z CP-1250 (np. Front Page, Word), a druga część społeczeństwa używało ISO-8859-2.
Z tego powodu w polskim Internecie było sporo krzaczków, nie mówiąc o problemie tworzenia takich stron. Od kilku lat dość popularnym kodowaniem stało się UTF-8 i problemy jakby ręką odjął – przynajmniej ja go nie odczuwam.
Dodam, że Google już od wielu lat przechowuje swoje zasoby właśnie z wykorzystaniem Unicode. Obecnie Google planuje przejść na Unicode 5.2 (ogłoszone w październiku 2009), który oferuje dodatkowe 6600 znaków.