Tipos de caracteres informatica

Tipos de caracteres informatica

ascii

ASCIIGráfico ASCII de un manual de impresora anterior a 1972MIME / IANAus-asciiAlias(es)ISO-IR-006,[1] ANSI_X3.4-1968, ANSI_X3.4-1986, ISO_646.irv:1991, ISO646-US, us, IBM367, cp367[2]Idioma(s)InglésClasificaciónSerie ISO 646Extensiones

ASCII (/ˈæskiː/ (escuchar) ASS-kee),[3]: 6 abreviatura de American Standard Code for Information Interchange, es un estándar de codificación de caracteres para la comunicación electrónica. Los códigos ASCII representan el texto en ordenadores, equipos de telecomunicaciones y otros dispositivos. La mayoría de los esquemas modernos de codificación de caracteres se basan en ASCII, aunque admiten muchos caracteres adicionales.

El ASCII se desarrolló a partir del código telegráfico. Su primer uso comercial fue un código de teleimpresora de siete bits promovido por los servicios de datos de Bell [¿cuándo?] Los trabajos sobre la norma ASCII comenzaron en mayo de 1961, con la primera reunión del subcomité X3.2 de la American Standards Association (ASA) (ahora el American National Standards Institute o ANSI). La primera edición de la norma se publicó en 1963,[4][5] se sometió a una importante revisión durante 1967,[6][7] y experimentó su más reciente actualización durante 1986.[8] En comparación con los códigos telegráficos anteriores, el código Bell propuesto y el ASCII se ordenaron para una clasificación más conveniente (es decir, la alfabetización) de las listas y se añadieron características para los dispositivos distintos de las teleimpresoras.[cita requerida].

ascii

Esta es una historia que se remonta a los primeros días de los ordenadores. La historia tiene un argumento, bueno, más o menos. Tiene competencia e intriga, además de atravesar montones de países e idiomas. Hay conflicto y resolución, y un final feliz. Pero lo más importante son los personajes: 110.116 de ellos. Al final de la historia, todos ellos encontrarán su propio lugar en este mundo.

Este artículo seguirá más de cerca a algunos de esos personajes, en su viaje desde el servidor web al navegador, y de vuelta a él. Por el camino, descubrirás más sobre la historia de los caracteres, los conjuntos de caracteres, Unicode y UTF-8, y por qué los signos de interrogación y los caracteres acentuados extraños aparecen a veces en las bases de datos y los archivos de texto.

Supongamos que mi ordenador utiliza el número 1 para la A, el 2 para la B, el 3 para la C, etc. y que el tuyo utiliza el 0 para la A, el 1 para la B, etc. Si yo te enviara el mensaje HOLA, entonces los números 8, 5, 12, 12, 15 zumbarían a través de los cables. Pero para ti el 8 significa yo, así que lo recibirías y descodificarías como IFMMP. Para comunicarnos eficazmente, tendríamos que acordar una forma estándar de codificar los caracteres.

iso/iec 8859-1

En el pasado, diferentes organizaciones han reunido diferentes conjuntos de caracteres y han creado codificaciones para ellos: un conjunto puede cubrir sólo las lenguas de Europa Occidental basadas en el latín (excluyendo países de la UE como Bulgaria o Grecia), otro puede cubrir una lengua concreta del Lejano Oriente (como el japonés), otros pueden ser uno de los muchos conjuntos concebidos de forma bastante ad hoc para representar otra lengua en algún lugar del mundo.

Por desgracia, no puede garantizar que su aplicación sea compatible con todas las codificaciones, ni que una determinada codificación sea compatible con todas sus necesidades para representar una lengua determinada. Además, suele ser imposible combinar diferentes codificaciones en la misma página web o en una base de datos, por lo que suele ser muy difícil admitir páginas multilingües utilizando enfoques de codificación «heredados».

El Consorcio Unicode ofrece un amplio y único conjunto de caracteres que pretende incluir todos los necesarios para cualquier sistema de escritura del mundo, incluidas las escrituras antiguas (como la cuneiforme, la gótica y los jeroglíficos egipcios). Actualmente es fundamental para la arquitectura de la Web y los sistemas operativos, y es compatible con los principales navegadores y aplicaciones web. El estándar Unicode también describe las propiedades y los algoritmos para trabajar con los caracteres.

juego de caracteres en la programación

R- Normalmente no, pero algunos editores de texto como notepad++ muestran la codificación. Si recibes un archivo que está codificado con una codificación diferente a la esperada, puedes obtener un error al intentar leerlo.

La endianidad es de interés en la informática porque hay dos formatos conflictivos e incompatibles de uso común: las palabras pueden representarse en formato big-endian o little-endian, dependiendo de si los bits o bytes u otros componentes se ordenan desde el extremo grande (bit más significativo) o el extremo pequeño (bit menos significativo).

En el formato big-endian, cuando se direcciona la memoria o se envían/almacenan palabras por orden de importancia, el byte más significativo -el que contiene el bit más significativo- se almacena primero (tiene la dirección más baja) o se envía primero, y luego los siguientes bytes se almacenan o envían en orden de importancia decreciente, con el byte menos significativo -el que