BIENVENIDOS

Este blog es muy interesante ya que hablamos sobre la computadora, los sistemas operativos y su clasificación; esta es una recopilación documental la cual les deseo compartir para poder servir o ayudar a alguien!!!! Saludos

lunes, 1 de octubre de 2012

CONCEPTO



Una computadora o computador (del inglés computer y este del latín computare -calcular), también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

HISTORIA



    


En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó la máquina de calcular de Pascal e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

CRONOLOGIA





Año 4000 a 3000 a.C. Invención del Ábaco, en China, instrumento formado por un conjunto de cuerdas paralelas, cada de las cuales sostiene varias cuentas móviles, usadas para contar, se desarrollo, hasta reflejar el sistema decimal, con diez cuentas en cada cuerda.
Año 1300 a 1500 d.C. En el imperio Inca es usado el sistema de cuentas, mediante nudos en cuerdas de colores, para mantener un registro y calculo de los inventarios de granos y ganado.
1617 John Napier desarrolla los vástagos de Napier, formados por un conjunto de piezas con números grabados en ellas, que podían ser usadas para multiplicar, dividir y extraer raíces.
1642 Blaise Pascal construye el primer calculador mecánico, que consistía en un conjunto de ruedas, cada una de las cuales registraba un dígito decimal, y al girarse en diez pasos producía un paso de rotación en la siguiente.
1662 William Oughtred inventa la regla de cálculo.
1871 Gottfried Wilheim Von Leibnitz mejora el diseño de Pascal.
1801 Joseph Marie Jackard perfecciona la primera máquina que utiliza tarjetas perforadas; ésta era un telar, que podía tejer automáticamente diseños complejos, de acuerdo a un conjunto de instrucciones codificadas en las tarjetas perforada.
1822 Charles Babbage construye un pequeño modelo operativo de un calculador llamado “Máquina de Diferencias”
1829 Charles Xavier Thomas, construye el primer calculador que ejecuta las cuatro operaciones aritméticas en forma exacta.
1872 Frank Stephen Baldwin inventa una calculadora con teclas, basada en los principios de la máquina de Charles Thomas.
1887 Hernan Hollerith, un estadista, hizo realidad su idea de la tarjeta de lectura mecánica, y diseñó un aparato que se llamo “Máquina de Censos”. Después del censo de 1890, Hollerith trasformó su equipo para uso comercial y estableció sistemas de estadísticas de carga para los ferrocarriles. En 1896, fundó la Compañía de Máquinas de Tabulación, para hacer y vender su invento. Posteriormente esta empresa se fusionó con otras para formar lo que hoy se conoce como IBM.
El procesamiento de tarjetas perforadas se basa en una idea simple: los datos de entrada se registran inicialmente en una forma codificada, perforando huecos en las tarjetas, y estas luego alimentan a las máquinas, las cuales realizan las diferentes etapas del proceso.
1925 Vennevar Bush y sus colaboradores construyen el primer Computador analógico de gran escala.
1937 Howard Aiken de la Universidad de Harvard en Massachussetts comienza a construir una máquina calculadora automática, el Mark I, que pudiera combinar las capacidades técnicas de la época con los conceptos de tarjetas perforadas desarrolladas por Hollerith. En 1944 el proyecto fue culminado.
El Mark I es considerado el primer Computador digital de proceso general. La máquina se basaba en el concepto de aceptar datos por medio de tarjetas perforadas utilizada como entrada de datos (INPUT), realizaban cálculos controlados por un relex electromagnético y contadores aritméticos mecánicos y perforaba los resultados en tarjetas como salidas (OUTPUT).
1943 - 1946 J. Presper Ecker y John Mauchly construyen el primer Computador completamente electrónico, el E.N.I.A.C. (Electronic Numerical Integrator And Calculator), pesaba aproximadamente 30 toneladas, ocupaba un espacio aproximado de 1.500 pies cuadrados y usaba 18.000 tubos. ENIAC podía resolver en un día lo que manualmente tardaría 300 días.
1944 John Von Neumann desarrolla el concepto de los programas almacenados, es decir, un conjunto de instrucciones guardadas en una unidad de almacenamiento, que luego son ejecutadas en forma secuencial. Basándose en este concepto, Ecker y Mauchly diseñan el ENIVAC, que fue terminado en 1952.

GENERACIONES



·          PRIMERA GENERACIÓN
Comprende desde 1951 hasta 1959. La compañía Sperry Rand Corporation construye la UNIVAC I, el primer Computador comercialmente disponible. Los componentes electrónicos usados fueron válvulas electrónicas, por este motivo su tamaño era muy grande y su mantenimiento complicado. Se calentaban rápidamente y esto obligaba a utilizar costosos sistemas de refrigeración. Eran de escasa fiabilidad, los tiempos de computación de los circuitos fundamentales eran de varios microsegundos, con lo que la ejecución de los programas largos implicaba espera, incluso de varios días. La forma de ejecutar los trabajos en los Computadores de esta generación era estrictamente a modo de secuencia.
·         SEGUNDA GENERACIÓN
Comprende desde 1959 a 1964. Fueron diseñadas con orientación científico - administrativa. Las compañías NCR y RCA introducen las primeras computadoras construidas completamente a base de componentes denominados transistores que adoptan la forma de paralelepípedos de silicio, la velocidad de cálculo aumentó considerablemente. Los Computadores más populares de esta generación fueron el IBM-1401, IBM-1620, IBM-7090, IBM-7094.
·         TERCERA GENERACIÓN
Comprende desde 1965. La compañía IBM produce las series 360 y 370, construidas con circuitos integrados de pequeña escala y de gran escala respectivamente, los cuales sustituyen, cada uno de ellos, a varios transistores, ocupando menor espacio y a menor costo. Estas series poseen memoria virtual que permite optimizar la memoria principal.
Las computadoras de esta generación se caracterizan por:
Uso de circuitos integrados: lo cual hizo posible la reducción del tamaño físico del Computador, y aumentó la velocidad de procesamiento, confiabilidad y precisión.
Multiprogramación: que es la ejecución de varios programas simultáneamente.
·         CUARTA GENERACIÓN
Comprende desde 1970. Basados en circuitos integrados de alta y media escala de integración con la que se van consiguiendo mejoras en el tamaño físico, llegando a tener Computadores de bolsillo, aparecen los minicomputadores y los microcomputadores.
Desde 1982 Sun Microsystem ha resuelto los problemas que conllevan mantener un ambiente de computación heterogéneo, a través del empleo de NFS (Network File System o Sistema de Archivos para Red de Trabajo). Este producto permite la interconexión de computadores de los principales proveedores de equipos, tales como: IBM, DEC, SUN, Unisys, Hewlett Packard, AT&T y más de 200 otros fabricantes. NFS, puede emplear el medio de comunicación que resulte más conveniente para el usuario: Ethernet, Token Ring, FDDI, y es totalmente independiente del sistema operativo que esté instalado en un equipo determinado. A través de NFS:
Se puede compartir archivos que residan en cualquier equipo conectado a la red, sin que el usuario tenga que conocer su procedencia (acceso transparente de la información).
Ejecutar programas en distintas máquinas, dependiendo de las ventajas comparativas que tiene un equipo sobre otro en una función específica.
Compartir recursos de almacenamiento y periféricos.
Administrar la red y en general, obtener la funcionalidad y seguridad de un sistema de computación distribuida.
·         QUINTA GENERACIÓN
Para algunos especialistas ya se inicio la quinta generación, en la cual se busca hacer más poderoso el Computador en el sentido que sea capaz de hacer inferencias sobre un problema específico. Se basa en la inteligencia artificial.
El Hardware de esta generación se debe caracterizar por circuitos de fibra óptica que le permita mayor rapidez e independencia de procesos, arquitectura de microcanal para mayor fluidez a los sistemas, esto provee mayor número de vías para ayudar a manejar rápido y efectivamente el flujo de información. Además se están buscando soluciones para resolver los problemas de la independencia de las soluciones y los procesos basándose para ello en Sistemas Expertos (de inteligencia artificial) capaces de resolver múltiples problemas no estructurados y en Computadores que puedan simular correctamente la forma de pensar del ser humano.

ETIMOLOGIA DE LA PALABRA ORDENADOR



La palabra española ordenador proviene del término francés ordinateur, en referencia a Dios que pone orden en el mundo ("Dieu qui met de l'ordre dans le monde").1 En parte por cuestiones de marketing, puesto que la descripción realizada por IBM para su introducción en Francia en 1954 situaba las capacidades de actuación de la máquina cerca de la omnipotencia, idea equivocada que perdura hoy en día al considerar que la máquina universal de Turing es capaz de computar absolutamente todo.2 En 1984, académicos franceses reconocieron, en el debate "Les jeunes, la technique et nous", que el uso de este sustantivo es incorrecto, porque la función de un computador es procesar datos, no dar órdenes.3 Mientras que otros, como el catedrático de filología latina Jacques Perret, conocedores del origen religioso del término, lo consideran más correcto que las alternativas.1
El uso de la palabra ordinateur se ha exportado a algunos idiomas de la península Ibérica, como el aragonés, el asturiano, el gallego, el castellano, el catalán y el euskera. El español que se habla en Iberoamérica así como los demás idiomas europeos, como el portugués, el alemán y el holandés, utilizan derivados del término computare.

Seguidores