Wednesday 19 April 2006 18:59 skrev Sven Arvidsson: > Torbjörn Svensson wrote: > > ISO är det som av tradition används inom *NIX ett bra tag, dock ser det > > ut som UTF-8 är det som kommer att vara dominerande under den kommande > > framtiden vilket borde vara själv nog till att använda det om man kan. > > Jag vet att bla Fedora och Suse har UTF-8 som default. > > Debian Etch kommer troligtvis också använda UTF-8 som default. > http://article.gmane.org/gmane.linux.debian.devel.announce/747
Några synpunkter från en Etch/KDE-brukare: Ja, det är nog så att Etch levereras med UTF-8 som default och det var så även när jag installerade en Sarge via nät-ISO för snart ett år sedan. Jag tolkar det som om att man nu beslutat att inleda övergången till UTF-8 så generellt som möjligt. Men det är inte problemfritt. Det som jag funnit vara besvärligast är att läsa plain-text i Windowsfiler. Visserligen är editorer som Kate och hennes 'föräldrar' fantastiskt utrustade för att kunna visa alla sorts textkodning, men mitt äventyr med UTF-8 slutade med att jag hade mina filer i olika format (UTF-8 respektive ISO-8859) helt utan kontroll. Jag kunde aldrig få i funktion någon slags halvautomatisk, lagom transparent konvertering. Själva idén i KDE med hur textfiler hanteras i det avseendet kom jag egentligen aldrig underfund med. Min blandning av UTF/ISO på Linux/Windows blev mig övermäktig. Jag har ingen dator med både Linux och Windows utan kör Samba på en Linux. Även Sambaservern sätts upp med UTF-8 som default. Efter moget övertestande ominstallerade jag alla system med ISO-8859-1 som locale och Samba med Unix charset ISO-8859-1. Jag insåg att det var enklast att göra så, eftersom väldigt mycket i systemet sätts upp direkt med default-teckenkodning, så man ändrar i själva verket bara en del på ytan om man bara ändrar locale på ett redan installerat system. Med ISO-8859-1 är det nästan aldrig några problem med ÅÄÖåäö (det är ju det som oftast blir fel). Windowstextfiler är alltid rätt kodade (det är väl så att ANSI är ungefär ISO-8859?) och blandade filer finns inte längre. Å andra sidan, den dag man inte behöver Windows, eller den dag då Microsoft fullt ut går över till UTF-8 som standard, är det väl dags att acceptera UTF-8 som standardkodning. Men jag tror att det återstår många små (tillsammans ganska stora) problem som måste lösas. Tänk till exempel på alla program som bygger på att ett tecken = en byte! Det behövs ett totalt nytänkande på många områden innan UTF-8 med variabelt antal bytes per tecken kan bli dominerande standard, tror jag. Räkna tecken och räkna bytes blir alldeles olika saker. Men borsett från det så är nog UTF-8 i alla fall bäst på lång sikt, kan man tro, eftersom alla(?) språk kan innefattas i en enda kodstandard. -- Vad säger ni, var jag oklok som inte tog tillfället i akt att övergå till UTF-8 när jag inledde min linucifiering? Bästa hälsningar Tore