Pregunta:
¿alguien sabe acerca de la historia de la computadora??
aLee
2007-09-20 16:20:59 UTC
porfa es urgente
Seven respuestas:
♫♪♫ amiga_dl_silencio ♥
2007-09-20 16:55:54 UTC
Historia de la Computación

COMPUTADORA

Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida.



TIPOS DE COMPUTADORAS



Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.



COMPUTADORA ANALÓGICA

Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).

COMPUTADORA DIGITAL

Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.

HISTORIA DE LA COMPUTACIÓN



Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.



Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.







La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.



Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.



El mundo no estaba listo, y no lo estaría por cien años más.



En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.









En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.



El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.



La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.



La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.



Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:



La forma en que están construidas.

Forma en que el ser humano se comunica con ellas.

Primera Generación



En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.



Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:



Estas máquinas estaban construidas por medio de tubos de vacío.

Eran programadas en lenguaje de máquina.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).







En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.



En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).



Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.



Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.



La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.



Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.



Segunda Generación



Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.



Las características de la segunda generación son las siguientes:



Están construidas con circuitos de transistores.

Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.



Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.



El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.



Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.



La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.



Tercera generación







Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3



Las características de esta generación fueron las siguientes:



Su fabricación electrónica esta basada en circuitos integrados.

Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).



El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.



En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.



En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.



A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.



A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.



Cuarta Generación







Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".



En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.



En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.



Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).



No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.



Quinta Generación



En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.



Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:



Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.

Manejo de lenguaje natural y sistemas de inteligencia artificial.

El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.



MODELO DE VON NEUMANN



Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.
dorothy
2016-07-13 23:18:39 UTC
¿Cómo reaccionarías si alguno te dijera que con solo escribir vas a comenzar a ganar cuartos en internet y desde casa?

El curso Gana Dinero Escribiendo https://tr.im/1A8ut , ofrece un excelente material que te enseña a escribir una gran cantidad de textos en unas pocas horas, de forma que puedas trabajar para miles de empresas en el pequeño tiempo posible, y puedas ofrendar el resto del día a cosas más importantes que pasarla sentada frente al computador.

Y esto no es todo, Gana Dinero Escribiendo incluso ofrece plantillas que hacen la tarea mucho más sencilla para copiar y pegar, de modo que cuando tengas a miles de empresas rogándote para que escribas para ellos, puedas adaptar los formatos y crear decenas de textos con unas pocas ideas.
2016-06-30 00:58:30 UTC
Si pretendes transaccional en Forex es mejor tener un técnico que te ayuda y si no te quedas satisfecho con uno entonces hay una preferencia mejor, 1aforex de aquí https://tr.im/1773W donde un montón de expertos están allí para ayudarte.

En 1aforex están tan convencidos que llegaras a ser un compradorfiel que te proporciona del mismo mode la oportunidad de recuperar tu dinero si no estás contento con ellos o si no ambicionas conseguir dinero.
2014-12-13 19:54:44 UTC
Estoy muy apasionada de este mundo y todos mis amigos han confiado en mí a la hora de comprar un ordenador, yo siempre les he comprado de sitios web porque tienen la mejor oferta al mejor precio, pero, el ultimo ordenador que he comprado ha sido uno de juguete para mi hija, y como siempre he acertado, tiene la dimensión perfecta para ella, buenas canciones, aprende con él y imita muy bien un ordenador portátil con su ratón con todo, a ella le ha encantado muchísimo.
Przbyslaw
2014-11-25 05:26:08 UTC
Muchas Personas tratan de hacer dinero con el trading online, pero sólo unos pocos tienen éxito ... ¿por qué?

Porque saben cómo hacer y seguir una estrategia precisa. Si usted desea aprender cómo realmente hacer dinero con el trading online a verlo http://trading-on.info
Nikita!!!!!!!!!!!!
2007-09-20 16:25:48 UTC
si, es esta, es larga pero es la historia



HISTORIA DE LA COMPUTACIÓN



Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.



Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.







La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.



Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.



El mundo no estaba listo, y no lo estaría por cien años más.



En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.









En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.



El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.



La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.



La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.



Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:



La forma en que están construidas.

Forma en que el ser humano se comunica con ellas.

Primera Generación



En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.



Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:



Estas máquinas estaban construidas por medio de tubos de vacío.

Eran programadas en lenguaje de máquina.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).







En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.



En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).



Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.



Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.



La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.



Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.



Segunda Generación



Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.



Las características de la segunda generación son las siguientes:



Están construidas con circuitos de transistores.

Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.



Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.



El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.



Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.



La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.



Tercera generación







Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3



Las características de esta generación fueron las siguientes:



Su fabricación electrónica esta basada en circuitos integrados.

Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).



El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.



En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.



En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.



A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.



A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.



Cuarta Generación







Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".



En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.



En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.



Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).



No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.



Quinta Generación



En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.



Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:



Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.

Manejo de lenguaje natural y sistemas de inteligencia artificial.

El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.



MODELO DE VON NEUMANN



Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.
RAYFER
2007-09-20 16:35:07 UTC
aver si te sirve algo de aqui checalo y despues si te sirve te sugiero que entres a estos juegos para que te quites el tedio del dia ok?



1. El Abaco



Quizás fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.



2. La Pascalina



El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Blas Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.



3. Historia de la computadora



La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en Las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.



El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.



4. La máquina analítica



También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.





5. Primeros ordenadores



Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.



Ordenadores electrónicos

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU) Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.



El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.



A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.



6. Circuitos integrados



A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.



7. Generaciones De La Computadora



Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se enuncian a continuación.



Primera Generación

Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas)



Almacenamiento de la información en tambor magnético interior.

Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban.

Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la programación resultaba larga y compleja.



Alto costo.

Uso de tarjetas perforadas para suministrar datos y los programas.



Segunda Generación

Transistores

Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas, más pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos estos motivos, la densidad del circuito podía ser aumentada sensiblemente, lo que quería decir que los componentes podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio.



Tercera Generación

Circuito integrado (chips)

Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.

Generalización de lenguajes de programación de alto nivel. Compatibilidad para compartir software entre diversos equipos.



Cuarta Generación

Microcircuito integrado

El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La microminiaturización permite construir el microprocesador, circuito integrado que rige las funciones fundamentales del ordenador.



Quinta Generación Y La Inteligencia Artificial

El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.



8. Pioneros de la computación



Atanasoff Y Berry

Una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer) Un estudiante graduado, Clifford Berry, fue una útil ayuda en la construcción de la computadora ABC.



Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una placa con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."



Pascal

Fue el primero en diseñar y construir una máquina sumadora. Quería ayudar a su padre, quien era cobrador de impuestos, con los cálculos aritméticos. La máquina era mecánica y tenía un sistema de engranes cada uno con 10 dientes; en cada diente había grabado un dígito entre el 0 y el 9. Así para representar un número, el engrane del extremo derecho se movía hasta tener el dígito de las unidades, el engrane que le seguía a la izquierda tenía el dígito de las decenas, el siguiente el de las centenas y así sucesivamente. Los números se representaban en la máquina como nosotros lo hacemos en notación decimal.



Para realizar una suma o una resta, se activaba el sistema de engranes que hacía girar cada uno de ellos. Comenzaba por el extremo derecho y seguía, uno por uno, hacia la izquierda. Cuando la suma en un engrane excedía el número 9, automáticamente el engrane inmediato a la izquierda se movía un décimo de vuelta aumentando en 1 la cantidad que representaba. Así Blaise Pascal logró resolver el problema del acarreo de dígitos para las máquinas sumadoras y obtuvo una máquina que podía sumar cualquier par de números.



Charles Babagge

Sus máquinas y su legado

El Babbage del que todo mundo ha leído es, sin embargo, el inventor fracasado que se pasó toda su vida intentando construir la primera computadora de uso general de la historia y que, pese a haber fracasado, hizo aportaciones muy significativas al desarrollo de la informática.



Muchas son las visiones románticas y hasta un tanto fantasiosas que se han escrito sobre la vida de Babbage. Mucho es lo que se ha dicho sobre sus "maravillosas máquinas", pero también mucha es la confusión que se ha desarrollado en torno a sus verdaderas aportaciones y a las razones por las que nunca pudo completar la construcción de las mismas.



Wilkes nos ofrece quizá una de las visiones menos apasionadas del genio de Babbage, y nos hace ver que realmente la primera máquina que Babbage intentaba construir, llamada Máquina Diferencial (Difference Engine) sólo era capaz de tabular polinomios, y que requería, de cualquier manera, bastante trabajo con lápiz y papel. La idea no era realmente tan buena como Babbage pensaba, pero él nunca lo hubiera admitido. Sin embargo, este proyecto tuvo un impacto muy importante en la investigación aplicada en Inglaterra, pues el gobierno británico decidió financiarlo con una fuerte suma de dinero, en su afán de perfeccionar la impresión de las tablas de navegación, tan comunes en aquella época. Joseph Clement, tal vez el mejor fabricante de herramientas del Reino Unido, fue asignado para trabajar con Babbage en el diseño de esta máquina. Sin embargo, tras una fuerte disputa Babbage acabó quedándose solo y sin un centavo de las £34,000 que invirtió en el proyecto después de 10 años de intenso trabajo. Se ha especulado que la máquina nunca se construyó porque todavía no se contaba con la tecnología necesaria, pero eso no parece ser cierto, dado que Georg y Edvard Scheutz, dos ingenieros Suecos que leyeron un artículo sobre la máquina de Babbage, fueron capaces de construir una Máquina Diferencial unos 10 años después de que el proyecto original se abandonara. La máquina funcionó y fue vendida al Observatorio Dudley en Nueva York, aunque se dice que nunca lo hizo muy bien y por ello pronto cayó en desuso. Una réplica de esta máquina se conserva en la oficina del Censo de Londres.



Realmente, la aportación clave de Babbage a la computación moderna vino con su siguiente máquina: La Máquina Analítica (Analytical Engine), el cual, de haberse construido, habría sido efectivamente la primera computadora de uso general de la historia. Babbage empezó a trabajar en este nuevo proyecto en 1834, pese a su fracaso con su máquina anterior, y continuó haciéndolo durante toda su vida. Su modelo fue refinado muchas veces, y a lo largo de este proceso, Babbage tuvo muchas ideas visionarias sobre las computadoras. Por ejemplo, sugirió el uso de tarjetas perforadas para controlar su máquina, y anticipó el uso de las mismas para representar un algoritmo e incluso inventó el concepto de bucles o ciclos en programación. También anticipó el uso de microprogramación, aunque dejó huecos importantes en su trabajo, y falló en anticipar cuestiones tan obvias hoy en día como es el uso de variables en un programa. Todo este trabajo, habría permanecido prácticamente desconocido por años de no haber sido por Ada, Condesa de Lovelace, la hija del famoso poeta Lord Byron, de quien hablaremos la próxima ocasión, que se dio a la tarea de difundir las ideas de Babbage sobre su máquina. Se ha llegado a decir sobre la Máquina Analítica, que sería injusto afirmar que Babbage fracasó también en su intento por construirla, pues nunca intentó realmente hacerlo, sabedor de que resultaría prácticamente imposible volver a conseguir fondos para financiar tal proyecto. Sin embargo, sus planos y notas fueron tan detallados que en 1991 el Museo Nacional de Ciencia y Tecnología de Londres construyó una máquina basándose en ellos y usando sólo materiales y herramientas disponibles en la época de Babbage. La máquina ha funcionado desde entonces, sin ningún problema. ¿Por qué no pudo entonces Babbage lograr fructificar su sueño? La respuesta sigue siendo un misterio. Hay quienes dicen que le faltó habilidad política para negociar con el gobierno, pero la verdad es que después de haberse gastado una fortuna y no recibir nada a cambio, creo que el gobierno de cualquier país se mostraría reacio a seguir invirtiendo en el mismo proyecto. Tal vez la verdadera razón haya sido la naturaleza idealista de Babbage que le impedía materializar muchas de sus maravillosas visiones, a la luz de su obsesión por lo perfecto.



Babbage nunca tuvo miedo a ser olvidado ni se sintió decepcionado por la indiferencia que sus contemporáneos mostraron por su trabajo. Cerca del final de su vida escribió: "No tengo miedo de dejar mi reputación a cargo de aquel que tenga éxito construyendo mi Máquina Analítica, porque él y sólo él será capaz de apreciar totalmente la naturaleza de mi esfuerzo y el valor de sus resultados". Nada más cierto que eso, puesto que a pesar de que Charles Babbage murió en total soledad la mañana del 18 de octubre de 1871 a sólo 2 meses de volverse un octogenario, sus aportaciones serían realmente apreciadas sólo hasta que las primeras computadoras digitales fueron construidas, a mediados del presente siglo. Sus experimentos dejarían huella profunda en el trabajo sobre autómatas del español Leonardo Torres de Quevedo a principios de este siglo; posiblemente la idea de Herman Hollerith de usar tarjetas perforadas fue derivada por la sugerencia de Babbage, y se ha llegado a especular que la Máquina Analítica pudo haber sido incluso la fuente principal de inspiración del modelo teórico de la computadora moderna desarrollado por el matemático Alan Turing y que hoy se conoce como "máquina de Turing". Con tan convincente evidencia de la importancia de sus ideas tal vez no importe tanto que Babbage no haya logrado construir sus máquinas después de todo, pues sus aportaciones resultaron igualmente significativas de cualquier forma.



Se sabe que Babbage nunca recibió remuneración alguna por su trabajo de 10 años en la Máquina Diferencial, por lo que el Parlamento Inglés decidió ofrecerle un título de nobleza a cambio (le ofrecieron el título de Barón) Babbage rehusó aceptarlo, pidiendo mejor una pensión vitalicia que nunca le fue concedida. ¿Un error de apreciación? No realmente, si consideramos que lo que realmente recibió a cambió del trabajo de toda una vida fue algo más valioso que cualquier título de nobleza: un sitio privilegiado en la historia de la informática, el de padre de la computación moderna.



Gottfried Wihelm Leibniz

Demostró las ventajas de utilizar el sistema binario en lugar del decimal en las computadoras mecánicas.

Inventó y construyó una máquina aritmética que realizaba las cuatro operaciones básicas y calculaba raíces cuadradas.

Nació el 1 de julio de 1646 en Leipzig, Sajonia (ahora Alemania)

Murió el 14 de noviembre de 1716 en Hannover, Hannover (ahora Alemania)

Leibniz ha sido uno de los más grandes matemáticos de la historia, se le reconoce como uno de los creadores del Cálculo Diferencial e Integral; pero fue un hombre universal que trabajó en varias disciplinas: lógica, mecánica, geología, jurisprudencia, historia, lingüística y teología.



Inventó una máquina aritmética que empezó a diseñar en 1671 y terminó de construir en 1694; era una máquina mucho más avanzada que la que había inventado Pascal y a la que llamó "calculadora secuencial o por pasos", en alemán: "dice Getrocknetsrechenmaschine". La máquina no sólo sumaba y restaba, sino que además podía multiplicar, dividir y sacar raíz cuadrada. Sin embargo, en esa época el desarrollo de la técnica no se encontraba en condiciones de producir en serie las piezas de gran precisión indispensables para el funcionamiento de la máquina.



El modelo que construyó Leibniz nunca funcionó correctamente; sin embargo, en 1794 se construyó un modelo funcional de la calculadora de Leibniz que actualmente se exhibe en la Real Sociedad de Londres. Esta última máquina tampoco resultó confiable y no fue sino hasta 1820 cuando se fabricó un aparato infalible y comercial capaz de realizar las cuatro operaciones aritméticas fundamentales.



John Von Neumann : un genio incomparable

Su interés por la computación

Con el advenimiento de la Segunda Guerra Mundial, von Neumann hubo de abandonar sus estudios en matemáticas puras, y concentrarse en problemas más prácticos para servir al Gobierno del que ahora era nacional. Fue consultor en proyectos de balística, en ondas de detonación, y eventualmente, se involucró en el desarrollo de la bomba atómica, en donde demostró la factibilidad de la técnica de implosión que más tarde se usaría en la bomba que detonó en Nagasaki. Sin embargo, debido a su valía como consultor en otras agencias gubernamentales ligadas a la guerra, von Neumann fue uno de los pocos científicos a quien no se le requirió permanecer de tiempo completo en Los Álamos. Fue precisamente durante la primera mitad de 1943, en plena guerra, que se interesó por primera vez en la computación. Tras un viaje a Inglaterra, le dijo a Voblen que creía sumamente importante que se utilizaran máquinas para acelerar los complejos cálculos involucrados con su trabajo. Aunque comenzaron a utilizar equipo de IBM, éste no satisfizo las necesidades del Proyecto Manhattan, y von Neumann empezó pronto a buscar opciones en otros lados. En 1944 sólo había unos pocos proyectos para desarrollar computadoras en los Estados Unidos: Howard Aiken en Harvard, George Stibitz en Laboratorios Bell, Jan Schilt en la Universidad Columbia, y Presper Eckert y John W. Mauchly, en la Universidad de Pennsylvania. Aunque von Neumann contactó a los 3 primeros científicos y estuvo en contacto con sus máquinas, la única computadora con la que realmente se involucró a fondo fue la última, llamada ENIAC (Electronic Numerical Integrator and Computer), que durante mucho tiempo fue ignorada por la comunidad científica, y que con el apoyo de von Neumann fue finalmente tomada en serio hasta convertirse en un proyecto de primera línea. Curiosamente, la ENIAC tenía una arquitectura en paralelo, aunque casi carecía de memoria (sólo podía almacenar 20 palabras), y otra máquina más ambiciosa, llamada EDVAC (Electronic Discrete Variable Arithmetic Computer) nació del deseo de sus diseñadores de construir una máquina "más útil" que operara en serie. Desgraciadamente, la reputación de von Neumann tenía también su lado negativo, y debido a una indiscreción a la prensa y al hecho de que firmó como autor único un borrador del EDVAC, el proyecto no sólo perdió su status de secreto, sino que se volvió objeto de una enorme controversia, pues Mauchly y Eckert no sólo se disgustaron mucho por no haber recibido el crédito debido, sino que fueron despedidos de la Universidad de Pennsylvania ante su negativa de ceder a la institución los derechos del ENIAC. Este error le costó a la Universidad de Pennsylvania el perder su status de universidad de primer nivel en los Estados Unidos, y todavía hoy se recuerda a éste como uno de sus peores momentos históricos. Eventualmente, la guerra terminó, el EDVAC se volvió del dominio público, Mauchly y Eckert fundaron su propia empresa y von Neumann regresó a Princeton con el sueño de construir su propia máquina.



Sus Últimos Años

Debido a los tropiezos que tuvo inicialmente para conseguir dinero para construir su computadora, varias universidades le ofrecieron trabajo a von Neumann después de la guerra, y aunque estuvo cerca de aceptar al menos una de estas ofertas, fue leal al IEA, y finalmente logró conseguir los fondos que necesitaba para su proyecto con ayuda de Princeton y la RCA. Su idea era construir una máquina similar a EDVAC pero más poderosa y más rápida. La computadora IAS fue eventualmente construida en los 50s, y su diseño ha servido como inspiración para la mayoría de las computadoras modernas, si bien la arquitectura que hoy recibe su nombre no fue realmente producto de su inventiva. Sus principales contribuciones en computación fueron: la noción del uso de monitores para visualizar datos, la invención del diagrama de flujo, la teoría de los autómatas celulares, incontables técnicas de cómputo matemático, fue co-autor de la teoría de juegos que dio pie al famoso método de Montecarlo, y fue co-autor del otrora famoso libro: "Cybernetics: Or Control and Communication in the Animal and the Machine" en el que explicaba junto con Norbert Wiener la manera en que los cerebros electrónicos podrían efectuar tareas humanas de diferentes grados de dificultad.



En octubre de 1954 se volvió miembro de la Comisión de Energía Atómica, por lo que se tuvo que mudar junto con su esposa a Georgetown, en Washington, D.C. A la vez, sirvió como consultor para la IBM, en donde conoció a John Backus mientras desarrollaba el FORTRAN. Curiosamente, von Neumann desdeñó el trabajo de Backus pensando que nadie requeriría jamás usar un lenguaje de programación de más alto nivel que el lenguaje binario que él tan bien conocía. En el verano de ese mismo año, se lastimó el hombro izquierdo en una caída, y en la cirugía posterior se descubrió que tenía cáncer en los huesos. Pese a saberse cerca de la muerte, continuó con su tremendo ritmo de trabajo, y en sus últimos días el secretario de defensa, y los secretarios del ejército, la marina y la fuerza aérea norteamericanas, se daban cita alrededor de la cama de von Neumann en el hospital Water Reed en Washington, D.C. Sólo médicos y personal con autorización militar podían verlo, ante el temor que revelara secretos importantes mientras estaba sedado. Para ese entonces, von Neumann había recibido un sinnúmero de doctorados Honoris Causa, la medalla presidencial al mérito, el premio Enrico Fermi y el premio Albert Einstein. Aunque nunca practicó en vida la religión Católica, bajo la cual fue bautizado por sus padres, al sentir cerca su fin pidió que un sacerdote le diera los sacramentos. Sus planes de irse a trabajar como profesor a la Universidad de California en Los Ángeles nunca se volverían realidad, porque el "mejor matemático del mundo", como lo llamara Herman H. Goldstine, falleció el 8 de febrero de 1957. Su leyenda, sin embargo, sigue viva hasta nuestros días en los corredores de Princeton y en una pléyade de libros alrededor del mundo.



Ada Byron

Ada Byron conoció a Charles Babbage en 1833, cuando ella tenía 18 años y el 42. Quedó tan impresionada por las ideas sobre las máquinas que Babbage inventaba que decidió estudiar matemáticas para poder ayudar a su amigo en lo que se refería a la rama teórica de sus inventos. Se convirtió, con el paso de los años, en una gran matemática y científica. Trabajó siempre muy cerca de Babbage en el diseño de máquinas computadoras y muy en particular en el diseño de la "máquina analítica". A propósito escribió:



"La característica que distingue a la máquina analítica, es la inclusión en ella del principio que Jacquard concibió para regular la fabricación, mediante tarjetas perforadas, de los más complicados modelos de brocados. Al capacitar a los mecanismos para combinar entre sí símbolos generales en sucesiones de variedad y extensión ilimitadas, se establece un eslabón entre las operaciones materiales y los procesos mentales abstractos de la rama más teórica de la ciencia matemática. Se desarrolla un lenguaje nuevo, amplio y poderoso, para su empleo futuro en el análisis, cuyas verdades se podrán manejar de modo que su aplicación sea más práctica y precisa para la humanidad de lo que hasta ahora han hecho las medidas a nuestro alcance..."



Ada Byron desarrolló de manera teórica el primer programa que la máquina analítica utilizó, pero su trabajo no se limitó a la parte científica; cuando el gobierno les retiro el apoyo financiero, Ada apostó en las carreras de caballos y empeñó todas sus joyas para obtener el dinero que se necesitaba en la construcción de la máquina.



Herman Hollerith

A los 19 años se graduó en la escuela de minería de la Universidad de Columbia y empezó a trabajar en la Oficina de Censos de los Estados Unidos. En 1880 se realizó el primer gran censo de ese país y la información se escribió en tarjetas extremadamente largas que debían acomodarse y contarse manualmente en las clasificaciones deseadas: edad, sexo, ocupación, etcétera, lo cual obligaba a que se reacomodaran y contaran varias veces.

Hollerith se propuso desarrollar un método más práctico para manejar estos datos. En 1889 termino su "máquina tabuladora eléctrica" que lograba registrar datos en tarjetas perforadas. Gracias a este invento se lograban tabular de 50 a 75 tarjetas por minuto y conteos que manualmente se hubieran terminado en años, podían lograrse en pocos meses.

Herman Hollerith fundó en 1896 la Compañía de Máquinas Tabuladoras para promover el uso comercial de su invento. Más tarde la compañía cambió al nombre de International Business Machine (IBM).



Howard H. Aiken

Construyó una computadora electromecánica programable siguiendo las ideas introducidas por Babbage

A partir de 1939 Howard Aiken, de la Universidad de Harvard, en asociación con ingenieros de la compañía IBM, trabajó durante 5 años en la construcción de una computadora totalmente automática, la "Harvard Mark I" que medía 15 metros de largo por 2.4 de altura.

Esta máquina se controlaba con tarjetas perforadas, podía realizar cinco operaciones fundamentales: suma, resta,

multiplicación, división y consulta de tablas de referencia. Los datos entraban mediante tarjetas perforadas y salían a través de una máquina electrónica.



Konrad Zuse

Introdujo interruptores magnéticos, llamados relevadores eléctricos en las computadoras.

Introdujo el control programado mediante cinta perforada lo que permitió automatizar el proceso de cálculo.

Construyó la primera computadora electromecánica programable.

Zuse continuó perfeccionando la computadora y en 1939 terminó una segunda versión a la que llamó Z2, dos años más tarde presentó la Z3, considerada por los expertos como la primera computadora totalmente programable. Esta computadora contenía en su procesador y en su memoria cerca de 2,600 relevadores que eran interruptores magnéticos que permitían introducir en las máquinas la representación binaria de los números.



En 1941 Zuse y un amigo solicitaron al gobierno alemán un patrocinio para construir una computadora electrónica más rápida que utilizara tubos de vacío. Sin embargo la ayuda no les fue otorgada y la máquina se quedó en proyecto.



Alan Mathison Turing

Diseñó la primera computadora electrónica digital de bulbos.

Turing fue un gran matemático, lógico y teórico de la computación. Cundo era estudiante de postgrado en la universidad de Princeton en 1936, publicó el artículo "On computable numbers", que estableció las bases teóricas para la computación moderna. En él describió lo que después se llamó la "Máquina de Turing": un dispositivo teórico que leía instrucciones de una cinta de papel perforada y ejecutaba todas las operaciones de una computadora. El artículo también fijó los límites de las ciencias de la computación al demostrar que existen problemas que ningún tipo de computadora podrá resolver.



Después de doctorarse en 1938, Turing tuvo la oportunidad de poner sus teorías en práctica. Bajo su dirección se construyó "Colossus", una máquina cuyo propósito era descifrar el código secreto militar alemán y que fue terminada en 1943. En la actualidad se le considera la primera computadora digital electrónica.



J. Presper Eckert y John W. Mauchly

Construyeron la computadora electrónica más grande del mundo y utilizaron para ello 18,000 bulbos.

J. Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, inventaron y desarrollaron en 1946 la ENIAC, acrónimo de Electronic Numerical Integrator and Calculator. Fue la mayor computadora de bulbos construida para uso general. Cuando ENIAC funcionaba correctamente, la velocidad de cálculo era entre 500 y 1000 veces superior a las calculadoras electromecánicas de su tiempo, casi la velocidad de las calculadoras de bolsillo de hoy.

Años más tarde Eckert y Mauchly construyeron la UNIVAC, la primera computadora que manejó información alfabética y numérica con igual facilidad.



http://s16.bitefight.es/c.php?uid=63759



http://s3.darkpirates.es/c.php?uid=53016



space4k.es


Este contenido se publicó originalmente en Y! Answers, un sitio web de preguntas y respuestas que se cerró en 2021.
Loading...