Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU) Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
http://www.monografias.com/trabajos14/antecedentescompu/antecedentescompu.shtml
http://www.smaldone.com.ar/fotografias/personajes.shtml
http://www.monografias.com/trabajos19/historia-computadora/historia-computadora.shtml
HISTORIA DVD
El DVD es el trabajo de muchas compañías y mucha gente. En un principio estaban dos propuestas competidoras. El formato MMCD que estaba respaldado por Sony, Philips, y otros. El formato competidor SD estaba respaldado por Toshiba, Matsushita, Time Warner y otros. Un grupo de compañías de ordenadores/computadoras liderados por IBM insistió en que los proponentes del DVD se pusiesen de acuerdo en un estándar único.
El formato combinado de DVD se anuncio en septiembre de 1995 evitando una confusión y repetición de gastos como fue la batalla VHS sobre BetaMax o la batalla por el sonido cuadrafónico de 1970s.
Ninguna compañía es "dueña" del DVD. La especificación oficial fue desarrollado por un consorcio de 10 compañías: Hitachi, JVC, Matsushita, Mitsubishi, Philips, Pioneer, Sony, Thomson, Time Warner, y Toshiba. También contribuyeron representantes de muchas compañías en varios grupos de trabajo. Time Warner registro originariamente el logo del DVD, y lo ha asignado desde entonces a la DVD Format/Logo Licensing Corporation. El termino "DVD" es muy común como para que sea una marca registrada o propietario.
ECMA ha desarrollado estándares internacionales para el DVD-ROM (la parte 1, la parte mas pequeña de la especificación DVD), Macrovisión licencia su tecnología analógica de sistemas anti-grabación a los fabricantes .
http://www.monografias.com/trabajos16/dvd-video-digital/dvd-video-digital.shtml
http://www.duplimaster.com/historia_dvd.php
Fecundación in vitro: historia
Si bien la procreación artificial por el método de inseminación, no es un procedimiento totalmente nuevo, sí lo es la fecundación in vitro. Uno de los primeros antecedentes vinculado a ésta técnica de reproducción asistida se ubica en 1944 cuando dos biólogos Rock y Menken obtuvieron cuatro embriones a partir de mas de cien ovocitos humanos extraídos de ovarios y expuestos a espermatozoides. Sin embargo, el resultado no fue del todo óptimo ya que al poco tiempo, los embriones perecieron.
Entre 1965-1970, el ginecólogo británico Robert Edwards, aplicó un proceso para obtener embriones teniendo en cuenta el momento óptimo de maduración de las dos células germinales humanas. Posteriormente, le surgió la idea del tratamiento hormonal para obtener mas de un óvulo por vez (ovulación inducida). Asimismo, presenta ante los investigadores, la posibilidad de fertilizar ovocitos humanos en probeta. Y en 1970, se obtiene el desarrollo de óvulos fertilizados in vitro: de 38 cigotos, la mayor parte alcanzó el estadio de 2 células, 2 el de 4, 3 el de 8 y 2 el de 16 células, es decir el de mórula inicial.
A principios de 1971, el investigador comunica haber conseguido un estadio más avanzado de desarrollo y anuncia la posibilidad de transferir embriones al útero materno para que allí se desarrollen y den a luz normalmente.
Y fue finalmente en 1978 cuando se produjo el primer nacimiento de Louise Brown, concebida por la técnica de fecundación in vitro y transferencia del embrión al útero. Para los padres, un matrimonio de clase media de Bristol (Inglaterra), Louise significó el final feliz tras muchos años de búsqueda de un hijo, cuando Lesley Brown (su madre) había quedado desahuciada a causa de una obstrucción de las trompas de falopio.
Para los médicos que hicieron posible su nacimiento fue la culminación de un trabajo de catorce años, con "pocos aciertos y muchas frustraciones". Finalmente el 10 de noviembre de 1977, Lesley Brown recibió un embrión de 8 células resultado de la fecundación in vitro de un óvulo suyo y el espermatozoide de su marido.
Los médicos habían comenzado suministrándole hormonas para que produjera el óvulo en el momento preciso; el mismo fue subcionado con una aguja hueca, retirado de su cuerpo y mantenido vivo durante 12 horas hasta que se unió el espermatozoide. Como habitualmente transcurren seis días entre la ovulación y la implantación del óvulo en la matriz, Edwards debió mantener el embrión en un medio que reprodujera las condiciones que se presentan en las trompas. Luego, Steptoe lo colocó en el útero mediante un tubo muy fino introducido a través de la vagina. Exitosamente el 25 de Julio de 1978 los médicos decidieron realizar una cesárea naciendo una beba de 2.608 Kg .
Los ensayos se fueron repitiendo a velocidad vertiginosa y poco a poco todos los países comenzaron a implementar este procedimiento. Los nacimientos por medio de la FIVET, en 1984 ascendían a 3 niños por día. Después el mundo perdió la cuenta.
Desde el punto de vista científico-técnico, la FIVET ha permitido obtener embarazos en parejas cuya esterilidad parecía definitiva. Si bien es indudable que este procedimiento está representando un papel muy importante en el avance de la técnica genética, también es cierto, que ha despertado un cúmulo de interrogantes y objeciones relativas al aspecto ético y moral entorno al mismo, teniendo en cuenta sus terribles derivaciones dependiendo de la finalidad de su utilización. Consideramos que es absolutamente necesario ser prudentes en la utilización de tales métodos, ya que de lo contrario podrían convertirse en una peligrosa arma de destrucción y desnaturalización del propio hombre.
De lo contrario, se corre el grave peligro de caer en un ataque desmedido a la especie humana y el desconocimiento de la propia naturaleza. Recordemos el siguiente principio ético rector para poder analizar nuestro trabajo: " no todo lo que técnicamente es posible, es eticamente aceptable"
http://www.salvador.edu.ar/ua1-4-tpcobas2.htm#CAPITULO%20I%20-%20%20HISTORIA
2007-05-26 19:43:54
·
answer #1
·
answered by Anonymous
·
0⤊
0⤋
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en Las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
4. La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
5. Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU) Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
6. Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
7. Generaciones De La Computadora
Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se enuncian a continuación.
Primera Generación
Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas)
Almacenamiento de la información en tambor magnético interior.
Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban.
Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la programación resultaba larga y compleja.
Alto costo.
Uso de tarjetas perforadas para suministrar datos y los programas.
Segunda Generación
Transistores
Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas, más pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos estos motivos, la densidad del circuito podía ser aumentada sensiblemente, lo que quería decir que los componentes podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio.
Tercera Generación
Circuito integrado (chips)
Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
Generalización de lenguajes de programación de alto nivel. Compatibilidad para compartir software entre diversos equipos.
Cuarta Generación
Microcircuito integrado
El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La microminiaturización permite construir el microprocesador, circuito integrado que rige las funciones fundamentales del ordenador.
Quinta Generación Y La Inteligencia Artificial
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.
8. Pioneros de la computación
Atanasoff Y Berry
Una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer) Un estudiante graduado, Clifford Berry, fue una útil ayuda en la construcción de la computadora ABC.
Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una placa con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."
Pascal
Fue el primero en diseñar y construir una máquina sumadora. Quería ayudar a su padre, quien era cobrador de impuestos, con los cálculos aritméticos. La máquina era mecánica y tenía un sistema de engranes cada uno con 10 dientes; en cada diente había grabado un dígito entre el 0 y el 9. Así para representar un número, el engrane del extremo derecho se movía hasta tener el dígito de las unidades, el engrane que le seguía a la izquierda tenía el dígito de las decenas, el siguiente el de las centenas y así sucesivamente. Los números se representaban en la máquina como nosotros lo hacemos en notación decimal.
Para realizar una suma o una resta, se activaba el sistema de engranes que hacía girar cada uno de ellos. Comenzaba por el extremo derecho y seguía, uno por uno, hacia la izquierda. Cuando la suma en un engrane excedía el número 9, automáticamente el engrane inmediato a la izquierda se movía un décimo de vuelta aumentando en 1 la cantidad que representaba. Así Blaise Pascal logró resolver el problema del acarreo de dígitos para las máquinas sumadoras y obtuvo una máquina que podía sumar cualquier par de números.
Charles Babagge
Sus máquinas y su legado
El Babbage del que todo mundo ha leído es, sin embargo, el inventor fracasado que se pasó toda su vida intentando construir la primera computadora de uso general de la historia y que, pese a haber fracasado, hizo aportaciones muy significativas al desarrollo de la informática.
Muchas son las visiones románticas y hasta un tanto fantasiosas que se han escrito sobre la vida de Babbage. Mucho es lo que se ha dicho sobre sus "maravillosas máquinas", pero también mucha es la confusión que se ha desarrollado en torno a sus verdaderas aportaciones y a las razones por las que nunca pudo completar la construcción de las mismas.
Wilkes nos ofrece quizá una de las visiones menos apasionadas del genio de Babbage, y nos hace ver que realmente la primera máquina que Babbage intentaba construir, llamada Máquina Diferencial (Difference Engine) sólo era capaz de tabular polinomios, y que requería, de cualquier manera, bastante trabajo con lápiz y papel. La idea no era realmente tan buena como Babbage pensaba, pero él nunca lo hubiera admitido. Sin embargo, este proyecto tuvo un impacto muy importante en la investigación aplicada en Inglaterra, pues el gobierno británico decidió financiarlo con una fuerte suma de dinero, en su afán de perfeccionar la impresión de las tablas de navegación, tan comunes en aquella época. Joseph Clement, tal vez el mejor fabricante de herramientas del Reino Unido, fue asignado para trabajar con Babbage en el diseño de esta máquina. Sin embargo, tras una fuerte disputa Babbage acabó quedándose solo y sin un centavo de las £34,000 que invirtió en el proyecto después de 10 años de intenso trabajo. Se ha especulado que la máquina nunca se construyó porque todavía no se contaba con la tecnología necesaria, pero eso no parece ser cierto, dado que Georg y Edvard Scheutz, dos ingenieros Suecos que leyeron un artículo sobre la máquina de Babbage, fueron capaces de construir una Máquina Diferencial unos 10 años después de que el proyecto original se abandonara. La máquina funcionó y fue vendida al Observatorio Dudley en Nueva York, aunque se dice que nunca lo hizo muy bien y por ello pronto cayó en desuso. Una réplica de esta máquina se conserva en la oficina del Censo de Londres.
Realmente, la aportación clave de Babbage a la computación moderna vino con su siguiente máquina: La Máquina Analítica (Analytical Engine), el cual, de haberse construido, habría sido efectivamente la primera computadora de uso general de la historia. Babbage empezó a trabajar en este nuevo proyecto en 1834, pese a su fracaso con su máquina anterior, y continuó haciéndolo durante toda su vida. Su modelo fue refinado muchas veces, y a lo largo de este proceso, Babbage tuvo muchas ideas visionarias sobre las computadoras. Por ejemplo, sugirió el uso de tarjetas perforadas para controlar su máquina, y anticipó el uso de las mismas para representar un algoritmo e incluso inventó el concepto de bucles o ciclos en programación. También anticipó el uso de microprogramación, aunque dejó huecos importantes en su trabajo, y falló en anticipar cuestiones tan obvias hoy en día como es el uso de variables en un programa. Todo este trabajo, habría permanecido prácticamente desconocido por años de no haber sido por Ada, Condesa de Lovelace, la hija del famoso poeta Lord Byron, de quien hablaremos la próxima ocasión, que se dio a la tarea de difundir las ideas de Babbage sobre su máquina. Se ha llegado a decir sobre la Máquina Analítica, que sería injusto afirmar que Babbage fracasó también en su intento por construirla, pues nunca intentó realmente hacerlo, sabedor de que resultaría prácticamente imposible volver a conseguir fondos para financiar tal proyecto. Sin embargo, sus planos y notas fueron tan detallados que en 1991 el Museo Nacional de Ciencia y Tecnología de Londres construyó una máquina basándose en ellos y usando sólo materiales y herramientas disponibles en la época de Babbage. La máquina ha funcionado desde entonces, sin ningún problema. ¿Por qué no pudo entonces Babbage lograr fructificar su sueño? La respuesta sigue siendo un misterio. Hay quienes dicen que le faltó habilidad política para negociar con el gobierno, pero la verdad es que después de haberse gastado una fortuna y no recibir nada a cambio, creo que el gobierno de cualquier país se mostraría reacio a seguir invirtiendo en el mismo proyecto. Tal vez la verdadera razón haya sido la naturaleza idealista de Babbage que le impedía materializar muchas de sus maravillosas visiones, a la luz de su obsesión por lo perfecto.
Babbage nunca tuvo miedo a ser olvidado ni se sintió decepcionado por la indiferencia que sus contemporáneos mostraron por su trabajo. Cerca del final de su vida escribió: "No tengo miedo de dejar mi reputación a cargo de aquel que tenga éxito construyendo mi Máquina Analítica, porque él y sólo él será capaz de apreciar totalmente la naturaleza de mi esfuerzo y el valor de sus resultados". Nada más cierto que eso, puesto que a pesar de que Charles Babbage murió en total soledad la mañana del 18 de octubre de 1871 a sólo 2 meses de volverse un octogenario, sus aportaciones serían realmente apreciadas sólo hasta que las primeras computadoras digitales fueron construidas, a mediados del presente siglo. Sus experimentos dejarían huella profunda en el trabajo sobre autómatas del español Leonardo Torres de Quevedo a principios de este siglo; posiblemente la idea de Herman Hollerith de usar tarjetas perforadas fue derivada por la sugerencia de Babbage, y se ha llegado a especular que la Máquina Analítica pudo haber sido incluso la fuente principal de inspiración del modelo teórico de la computadora moderna desarrollado por el matemático Alan Turing y que hoy se conoce como "máquina de Turing". Con tan convincente evidencia de la importancia de sus ideas tal vez no importe tanto que Babbage no haya logrado construir sus máquinas después de todo, pues sus aportaciones resultaron igualmente significativas de cualquier forma.
Se sabe que Babbage nunca recibió remuneración alguna por su trabajo de 10 años en la Máquina Diferencial, por lo que el Parlamento Inglés decidió ofrecerle un título de nobleza a cambio (le ofrecieron el título de Barón) Babbage rehusó aceptarlo, pidiendo mejor una pensión vitalicia que nunca le fue concedida. ¿Un error de apreciación? No realmente, si consideramos que lo que realmente recibió a cambió del trabajo de toda una vida fue algo más valioso que cualquier título de nobleza: un sitio privilegiado en la historia de la informática, el de padre de la computación moderna.
Gottfried Wihelm Leibniz
Demostró las ventajas de utilizar el sistema binario en lugar del decimal en las computadoras mecánicas.
Inventó y construyó una máquina aritmética que realizaba las cuatro operaciones básicas y calculaba raíces cuadradas.
Nació el 1 de julio de 1646 en Leipzig, Sajonia (ahora Alemania)
Murió el 14 de noviembre de 1716 en Hannover, Hannover (ahora Alemania)
Leibniz ha sido uno de los más grandes matemáticos de la historia, se le reconoce como uno de los creadores del Cálculo Diferencial e Integral; pero fue un hombre universal que trabajó en varias disciplinas: lógica, mecánica, geología, jurisprudencia, historia, lingüística y teología.
Inventó una máquina aritmética que empezó a diseñar en 1671 y terminó de construir en 1694; era una máquina mucho más avanzada que la que había inventado Pascal y a la que llamó "calculadora secuencial o por pasos", en alemán: "dice Getrocknetsrechenmaschine". La máquina no sólo sumaba y restaba, sino que además podía multiplicar, dividir y sacar raíz cuadrada. Sin embargo, en esa época el desarrollo de la técnica no se encontraba en condiciones de producir en serie las piezas de gran precisión indispensables para el funcionamiento de la máquina.
El modelo que construyó Leibniz nunca funcionó correctamente; sin embargo, en 1794 se construyó un modelo funcional de la calculadora de Leibniz que actualmente se exhibe en la Real Sociedad de Londres. Esta última máquina tampoco resultó confiable y no fue sino hasta 1820 cuando se fabricó un aparato infalible y comercial capaz de realizar las cuatro operaciones aritméticas fundamentales.
John Von Neumann : un genio incomparable
Su interés por la computación
Con el advenimiento de la Segunda Guerra Mundial, von Neumann hubo de abandonar sus estudios en matemáticas puras, y concentrarse en problemas más prácticos para servir al Gobierno del que ahora era nacional. Fue consultor en proyectos de balística, en ondas de detonación, y eventualmente, se involucró en el desarrollo de la bomba atómica, en donde demostró la factibilidad de la técnica de implosión que más tarde se usaría en la bomba que detonó en Nagasaki. Sin embargo, debido a su valía como consultor en otras agencias gubernamentales ligadas a la guerra, von Neumann fue uno de los pocos científicos a quien no se le requirió permanecer de tiempo completo en Los Álamos. Fue precisamente durante la primera mitad de 1943, en plena guerra, que se interesó por primera vez en la computación. Tras un viaje a Inglaterra, le dijo a Voblen que creía sumamente importante que se utilizaran máquinas para acelerar los complejos cálculos involucrados con su trabajo. Aunque comenzaron a utilizar equipo de IBM, éste no satisfizo las necesidades del Proyecto Manhattan, y von Neumann empezó pronto a buscar opciones en otros lados. En 1944 sólo había unos pocos proyectos para desarrollar computadoras en los Estados Unidos: Howard Aiken en Harvard, George Stibitz en Laboratorios Bell, Jan Schilt en la Universidad Columbia, y Presper Eckert y John W. Mauchly, en la Universidad de Pennsylvania. Aunque von Neumann contactó a los 3 primeros científicos y estuvo en contacto con sus máquinas, la única computadora con la que realmente se involucró a fondo fue la última, llamada ENIAC (Electronic Numerical Integrator and Computer), que durante mucho tiempo fue ignorada por la comunidad científica, y que con el apoyo de von Neumann fue finalmente tomada en serio hasta convertirse en un proyecto de primera línea. Curiosamente, la ENIAC tenía una arquitectura en paralelo, aunque casi carecía de memoria (sólo podía almacenar 20 palabras), y otra máquina más ambiciosa, llamada EDVAC (Electronic Discrete Variable Arithmetic Computer) nació del deseo de sus diseñadores de construir una máquina "más útil" que operara en serie. Desgraciadamente, la reputación de von Neumann tenía también su lado negativo, y debido a una indiscreción a la prensa y al hecho de que firmó como autor único un borrador del EDVAC, el proyecto no sólo perdió su status de secreto, sino que se volvió objeto de una enorme controversia, pues Mauchly y Eckert no sólo se disgustaron mucho por no haber recibido el crédito debido, sino que fueron despedidos de la Universidad de Pennsylvania ante su negativa de ceder a la institución los derechos del ENIAC. Este error le costó a la Universidad de Pennsylvania el perder su status de universidad de primer nivel en los Estados Unidos, y todavía hoy se recuerda a éste como uno de sus peores momentos históricos. Eventualmente, la guerra terminó, el EDVAC se volvió del dominio público, Mauchly y Eckert fundaron su propia empresa y von Neumann regresó a Princeton con el sueño de construir su propia máquina.
Sus Últimos Años
Debido a los tropiezos que tuvo inicialmente para conseguir dinero para construir su computadora, varias universidades le ofrecieron trabajo a von Neumann después de la guerra, y aunque estuvo cerca de aceptar al menos una de estas ofertas, fue leal al IEA, y finalmente logró conseguir los fondos que necesitaba para su proyecto con ayuda de Princeton y la RCA. Su idea era construir una máquina similar a EDVAC pero más poderosa y más rápida. La computadora IAS fue eventualmente construida en los 50s, y su diseño ha servido como inspiración para la mayoría de las computadoras modernas, si bien la arquitectura que hoy recibe su nombre no fue realmente producto de su inventiva. Sus principales contribuciones en computación fueron: la noción del uso de monitores para visualizar datos, la invención del diagrama de flujo, la teoría de los autómatas celulares, incontables técnicas de cómputo matemático, fue co-autor de la teoría de juegos que dio pie al famoso método de Montecarlo, y fue co-autor del otrora famoso libro: "Cybernetics: Or Control and Communication in the Animal and the Machine" en el que explicaba junto con Norbert Wiener la manera en que los cerebros electrónicos podrían efectuar tareas humanas de diferentes grados de dificultad.
En octubre de 1954 se volvió miembro de la Comisión de Energía Atómica, por lo que se tuvo que mudar junto con su esposa a Georgetown, en Washington, D.C. A la vez, sirvió como consultor para la IBM, en donde conoció a John Backus mientras desarrollaba el FORTRAN. Curiosamente, von Neumann desdeñó el trabajo de Backus pensando que nadie requeriría jamás usar un lenguaje de programación de más alto nivel que el lenguaje binario que él tan bien conocía. En el verano de ese mismo año, se lastimó el hombro izquierdo en una caída, y en la cirugía posterior se descubrió que tenía cáncer en los huesos. Pese a saberse cerca de la muerte, continuó con su tremendo ritmo de trabajo, y en sus últimos días el secretario de defensa, y los secretarios del ejército, la marina y la fuerza aérea norteamericanas, se daban cita alrededor de la cama de von Neumann en el hospital Water Reed en Washington, D.C. Sólo médicos y personal con autorización militar podían verlo, ante el temor que revelara secretos importantes mientras estaba sedado. Para ese entonces, von Neumann había recibido un sinnúmero de doctorados Honoris Causa, la medalla presidencial al mérito, el premio Enrico Fermi y el premio Albert Einstein. Aunque nunca practicó en vida la religión Católica, bajo la cual fue bautizado por sus padres, al sentir cerca su fin pidió que un sacerdote le diera los sacramentos. Sus planes de irse a trabajar como profesor a la Universidad de California en Los Ángeles nunca se volverían realidad, porque el "mejor matemático del mundo", como lo llamara Herman H. Goldstine, falleció el 8 de febrero de 1957. Su leyenda, sin embargo, sigue viva hasta nuestros días en los corredores de Princeton y en una pléyade de libros alrededor del mundo.
Ada Byron
Ada Byron conoció a Charles Babbage en 1833, cuando ella tenía 18 años y el 42. Quedó tan impresionada por las ideas sobre las máquinas que Babbage inventaba que decidió estudiar matemáticas para poder ayudar a su amigo en lo que se refería a la rama teórica de sus inventos. Se convirtió, con el paso de los años, en una gran matemática y científica. Trabajó siempre muy cerca de Babbage en el diseño de máquinas computadoras y muy en particular en el diseño de la "máquina analítica". A propósito escribió:
"La característica que distingue a la máquina analítica, es la inclusión en ella del principio que Jacquard concibió para regular la fabricación, mediante tarjetas perforadas, de los más complicados modelos de brocados. Al capacitar a los mecanismos para combinar entre sí símbolos generales en sucesiones de variedad y extensión ilimitadas, se establece un eslabón entre las operaciones materiales y los procesos mentales abstractos de la rama más teórica de la ciencia matemática. Se desarrolla un lenguaje nuevo, amplio y poderoso, para su empleo futuro en el análisis, cuyas verdades se podrán manejar de modo que su aplicación sea más práctica y precisa para la humanidad de lo que hasta ahora han hecho las medidas a nuestro alcance..."
Ada Byron desarrolló de manera teórica el primer programa que la máquina analítica utilizó, pero su trabajo no se limitó a la parte científica; cuando el gobierno les retiro el apoyo financiero, Ada apostó en las carreras de caballos y empeñó todas sus joyas para obtener el dinero que se necesitaba en la construcción de la máquina.
Herman Hollerith
A los 19 años se graduó en la escuela de minería de la Universidad de Columbia y empezó a trabajar en la Oficina de Censos de los Estados Unidos. En 1880 se realizó el primer gran censo de ese país y la información se escribió en tarjetas extremadamente largas que debían acomodarse y contarse manualmente en las clasificaciones deseadas: edad, sexo, ocupación, etcétera, lo cual obligaba a que se reacomodaran y contaran varias veces.
Hollerith se propuso desarrollar un método más práctico para manejar estos datos. En 1889 termino su "máquina tabuladora eléctrica" que lograba registrar datos en tarjetas perforadas. Gracias a este invento se lograban tabular de 50 a 75 tarjetas por minuto y conteos que manualmente se hubieran terminado en años, podían lograrse en pocos meses.
Herman Hollerith fundó en 1896 la Compañía de Máquinas Tabuladoras para promover el uso comercial de su invento. Más tarde la compañía cambió al nombre de International Business Machine (IBM).
Howard H. Aiken
Construyó una computadora electromecánica programable siguiendo las ideas introducidas por Babbage
A partir de 1939 Howard Aiken, de la Universidad de Harvard, en asociación con ingenieros de la compañía IBM, trabajó durante 5 años en la construcción de una computadora totalmente automática, la "Harvard Mark I" que medía 15 metros de largo por 2.4 de altura.
Esta máquina se controlaba con tarjetas perforadas, podía realizar cinco operaciones fundamentales: suma, resta,
multiplicación, división y consulta de tablas de referencia. Los datos entraban mediante tarjetas perforadas y salían a través de una máquina electrónica.
Konrad Zuse
Introdujo interruptores magnéticos, llamados relevadores eléctricos en las computadoras.
Introdujo el control programado mediante cinta perforada lo que permitió automatizar el proceso de cálculo.
Construyó la primera computadora electromecánica programable.
Zuse continuó perfeccionando la computadora y en 1939 terminó una segunda versión a la que llamó Z2, dos años más tarde presentó la Z3, considerada por los expertos como la primera computadora totalmente programable. Esta computadora contenía en su procesador y en su memoria cerca de 2,600 relevadores que eran interruptores magnéticos que permitían introducir en las máquinas la representación binaria de los números.
En 1941 Zuse y un amigo solicitaron al gobierno alemán un patrocinio para construir una computadora electrónica más rápida que utilizara tubos de vacío. Sin embargo la ayuda no les fue otorgada y la máquina se quedó en proyecto.
Alan Mathison Turing
Diseñó la primera computadora electrónica digital de bulbos.
Turing fue un gran matemático, lógico y teórico de la computación. Cundo era estudiante de postgrado en la universidad de Princeton en 1936, publicó el artículo "On computable numbers", que estableció las bases teóricas para la computación moderna. En él describió lo que después se llamó la "Máquina de Turing": un dispositivo teórico que leía instrucciones de una cinta de papel perforada y ejecutaba todas las operaciones de una computadora. El artículo también fijó los límites de las ciencias de la computación al demostrar que existen problemas que ningún tipo de computadora podrá resolver.
Después de doctorarse en 1938, Turing tuvo la oportunidad de poner sus teorías en práctica. Bajo su dirección se construyó "Colossus", una máquina cuyo propósito era descifrar el código secreto militar alemán y que fue terminada en 1943. En la actualidad se le considera la primera computadora digital electrónica.
J. Presper Eckert y John W. Mauchly
Construyeron la computadora electrónica más grande del mundo y utilizaron para ello 18,000 bulbos.
J. Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, inventaron y desarrollaron en 1946 la ENIAC, acrónimo de Electronic Numerical Integrator and Calculator. Fue la mayor computadora de bulbos construida para uso general. Cuando ENIAC funcionaba correctamente, la velocidad de cálculo era entre 500 y 1000 veces superior a las calculadoras electromecánicas de su tiempo, casi la velocidad de las calculadoras de bolsillo de hoy.
Años más tarde Eckert y Mauchly construyeron la UNIVAC, la primera computadora que manejó información alfabética y numérica con igual facilidad.
El profesor Robert Edwards, inventor de la fecundación in vitro hizo posible el nacimiento, en 1978, del primer bebé-probeta,
El origen del DVD tiene lugar en los años ochenta cuando Sony y Philips comienzan a explotar las posibilidades del soporte digital en CD. Primero fue el CD Digital Audio, al que le seguiría el CD-ROM. El 1996 la electrónica de consumo y los fabricantes de ordenadores junto con los estudios de cine se pusieron de acuerdo en el estándar de DVD vídeo actual. En 1997 salieron al mercado estadounidense los primeros reproductores de DVD video, que consiguieron vender en el primer año 10 veces más unidades que las del CD. Al año siguiente comenzó la venta en España.
2007-05-26 19:23:05
·
answer #8
·
answered by Tere B 7
·
0⤊
0⤋