Codici ASCII esteso
Con ASCII si intende un codice di interpretazione dei byte che permette di codificare i caratteri che vanno da 0 a 127.
Nato negli anni Sessanta per rendere più efficiente e veloce la comunicazione fu approvato solo un secolo dopo come codice universale, un vero e proprio linguaggio comprensibile da qualsiasi computer che consente di ottenere dei file in formato leggibile a qualsiasi programma, insomma un linguaggio universalmente riconosciuto.
Il Codice ASCII inizialmente si prestava soltanto all'interpretazione di 127 caratteri corrispondenti a 7 bit, dunque il codice standard copre solo i primi 128 byte.
I successivi byte, per intenderci quelli compresi tra il 129°e il 256° vengono interpretati dal Codice ASCII esteso, e la tabella ASCII estesa presenta varie versioni a livello nazionale.
Ma vediamo nel dettaglio come si passò ad estendere il codice standard e quali furono le prime misure adottate.
ASCII ESTESO: un po' di storia
La tabella Ascii, come abbiamo visto, includeva in origine soltanto l'interpretazione di 128 caratteri di cui 33 erano i caratteri di controllo, definiti non stampabili.
Successivamente, visto che il numero dei simboli utilizzati nel linguaggio naturale supera di gran lunga quello dei caratteri da codificare si è sentita la necessità di provvedere ad espandere il set di codifica del Codice ASCII, pertanto la codifica ASCII divenne US- ASCII per evitare confusioni con la nuova estensione del codice a 8 bit.
La codifica US-ASCII nella sua forma standard non è altro che l'interpretazione di caratteri alfanumerici, di simboli di diversa entità, tra cui anche i simboli di punteggiatura.
Per quanto riguarda il Codice ASCII esteso fu l'IBM ad introdurre inizialmente nei suoi computer una codifica a 8 bit mantenendo il valore originario dei 128 caratteri ASCII ma organizzando le codifiche in pagine o code page che si differenziavano dalla tabella ASCII standard da 128 caratteri nell'utilizzare l'ottavo bit disponibile in ogni byte.
Solo in seguito l'ISO riconobbe l'estensione del Codice ASCII a 8 bit rilasciando un importante standard, denominato l'ISO/IEC 8859-1 detto anche Latin1, che introduceva ufficialmente i caratteri per i paesi dell'Europa Occidentale e quindi consentiva la codifica di ben 192 caratteri.
La Tabella ASCII standard fu infatti creata in America pertanto non comprende i simboli o le lettere accentate, elemento sconosciuto all'ortografia inglese.
Lo Standard ISO permette diverse estensioni che includono anche lingue diverse dal latino, ma non è l'unico ad averle rilasciate: anche Microsoft ne ha creato alcune, non riconosciute dall'ISO, destinate ai sistemi Windows e Apple per Macintosh.
In Italia il Codice ASCII esteso attualmente utilizzato è quello dell'Europa Occidentale, mentre i paese dell'Europa Orientale utilizzano quello Centro Europeo.
ASCII esteso e UNICODE
Proprio per mettere ordine al complesso sistema di codifiche esistente nel 1991 venne introdotto un nuovo standard, detto UNICODE.
Il codice Unicode rappresenta uno standard internazionale che permette di rappresentare tutti i carattere attraverso un codice a 16 bit che raggruppa tutti gli alfabeti esistenti (arabo, armeno, cirillico, greco, ebraico, latino, ecc.) ed è compatibile con il sistema ASCII.
Questo sistema di codifica viene utilizzato soprattutto per l'interpretazione dei caratteri di lingue come il cinese, il giapponese e il coreano pur abbracciando però tutte le varianti dell'alfabeto latino.
Unico inconveniente è che il codice UNICODE interpreta i caratteri utilizzando 2 byte (corrispondenti a 16 bit), ciò vuol dire che, a differenza del Codice ASCII, le dimensioni dei file risultano raddoppiate in quanto per la codifica di testo vengono impiegati ben 2 byte per carattere e non più uno solo.
Ancora si sta lavorando per avere uno standard definitivo e universale ma sono tantissimi i codici disponibili, a tal punto che sembra nel codice Unicode verranno inseriti e interpretati anche linguaggi di fantasia come ad esempio il Klingon di Star Trek.