Conceptos de informatica wikipedia

disciplina de la informática

La informática es cualquier actividad orientada a objetivos que requiera, se beneficie o cree maquinaria informática. Incluye el estudio y la experimentación de procesos algorítmicos y el desarrollo tanto de hardware como de software. Tiene aspectos científicos, de ingeniería, matemáticos, tecnológicos y sociales. Las principales disciplinas informáticas son la ingeniería informática, la informática, la ciberseguridad, la ciencia de los datos, los sistemas de información, la tecnología de la información y la ingeniería del software[2].

«De forma general, podemos definir la informática como cualquier actividad orientada a objetivos que requiera, se beneficie o cree ordenadores. Por lo tanto, la informática incluye el diseño y la construcción de sistemas de hardware y software para una amplia gama de propósitos; el procesamiento, la estructuración y la gestión de diversos tipos de información; la realización de estudios científicos utilizando ordenadores; la creación de sistemas informáticos que se comporten de forma inteligente; la creación y el uso de medios de comunicación y entretenimiento; la búsqueda y la recopilación de información relevante para cualquier propósito particular, etc. La lista es prácticamente interminable y las posibilidades son enormes».

cuándo fue inventado el primer ordenador por charles babbage

La historia de la computación es más larga que la del hardware informático y la tecnología informática moderna e incluye la historia de los métodos pensados para la pluma y el papel o para la tiza y la pizarra, con o sin ayuda de tablas.

La computación digital está íntimamente ligada a la representación de los números[1]. Pero mucho antes de que surgieran abstracciones como el número, existían conceptos matemáticos al servicio de los fines de la civilización. Estos conceptos están implícitos en prácticas concretas como:

Con el tiempo, el concepto de número se volvió lo suficientemente concreto y familiar como para que surgiera el conteo, a veces con mnemotecnia cantada para enseñar las secuencias a otros. Todas las lenguas humanas conocidas, excepto la lengua piraha, tienen palabras para al menos «uno» y «dos», e incluso algunos animales como el mirlo pueden distinguir un número sorprendente de elementos[5].

Los avances en el sistema numérico y la notación matemática condujeron finalmente al descubrimiento de operaciones matemáticas como la suma, la resta, la multiplicación, la división, la cuadratura, la raíz cuadrada, etc. Con el tiempo, las operaciones se formalizaron y los conceptos sobre las operaciones se entendieron lo suficientemente bien como para ser enunciados formalmente, e incluso demostrados. Véase, por ejemplo, el algoritmo de Euclides para encontrar el máximo común divisor de dos números.

ordenador colossus

La historia de la computación es más larga que la del hardware informático y la tecnología informática moderna e incluye la historia de los métodos pensados para el lápiz y el papel o para la tiza y la pizarra, con o sin la ayuda de tablas.

La computación digital está íntimamente ligada a la representación de los números[1]. Pero mucho antes de que surgieran abstracciones como el número, existían conceptos matemáticos al servicio de los fines de la civilización. Estos conceptos están implícitos en prácticas concretas como:

Con el tiempo, el concepto de número se volvió lo suficientemente concreto y familiar como para que surgiera el conteo, a veces con mnemotecnia cantada para enseñar las secuencias a otros. Todas las lenguas humanas conocidas, excepto la lengua piraha, tienen palabras para al menos «uno» y «dos», e incluso algunos animales como el mirlo pueden distinguir un número sorprendente de elementos[5].

Los avances en el sistema numérico y la notación matemática condujeron finalmente al descubrimiento de operaciones matemáticas como la suma, la resta, la multiplicación, la división, la cuadratura, la raíz cuadrada, etc. Con el tiempo, las operaciones se formalizaron y los conceptos sobre las operaciones se entendieron lo suficientemente bien como para ser enunciados formalmente, e incluso demostrados. Véase, por ejemplo, el algoritmo de Euclides para encontrar el máximo común divisor de dos números.

eniac

Este artículo necesita citas adicionales para su verificación. Por favor, ayude a mejorar este artículo añadiendo citas de fuentes fiables. El material sin fuente puede ser cuestionado y eliminado.Buscar fuentes:  «Abstracción» informática – noticias – periódicos – libros – erudito – JSTOR (junio de 2011) (Aprende cómo y cuándo eliminar este mensaje de la plantilla)

La abstracción, en general, es un concepto fundamental en las ciencias de la computación y en el desarrollo de software[4] El proceso de abstracción también puede denominarse modelado y está estrechamente relacionado con los conceptos de teoría y diseño[5] Los modelos también pueden considerarse tipos de abstracción por su generalización de aspectos de la realidad.

La abstracción en informática está estrechamente relacionada con la abstracción en matemáticas debido a su enfoque común en la construcción de abstracciones como objetos,[2] pero también está relacionada con otras nociones de abstracción utilizadas en otros campos como el arte[3].

La computación opera mayoritariamente de forma independiente del mundo concreto. El hardware implementa un modelo de computación que es intercambiable con otros[cita requerida] El software está estructurado en arquitecturas para permitir a los humanos crear los enormes sistemas concentrándose en unos pocos temas a la vez. Estas arquitecturas se componen de elecciones específicas de abstracciones. La Décima Regla de Greenspun es un aforismo sobre cómo una arquitectura de este tipo es inevitable y compleja.