domingo, 23 de octubre de 2016

PROCESO ARTESANAL

La maestra de Ofimática nos puso a pintar unas piedras de rio. Yo pinte mi piedra de gris y despues le puse unos ojos y una boca después hice su base que con una hoja de color naranja la hice en forma de cilindro,dibuje un traje,después lo pinte de color azul después la piedra ya seca la coloque en su base.

jueves, 13 de octubre de 2016

ESCRITURA AL TACTO

La escritura al tacto es la técnica que se emplea al introducir un texto en un dispositivo por medio de un teclado.
Posiciones de los dedos en un teclado.

miércoles, 5 de octubre de 2016

LOS VIDEOJUEGOS

Durante bastante tiempo ha sido complicado señalar cual fue el primer videojuego, principalmente debido a las múltiples definiciones de este que se han ido estableciendo, pero se puede considerar como primer videojuego el Nought and crosses, también llamado OXO, desarrollado por Alexander S.Douglas en 1952. El juego era una versión computerizada del tres en raya que se ejecutaba sobre la EDSAC y permitía enfrentar a un jugador humano contra la máquinaEn 1958 William Higginbotham creó, sirviéndose de un programa para el cálculo de trayectorias y un osciloscopio, Tennis for Two (tenis para dos): un simulador de tenis de mesa para entretenimiento de los visitantes de la exposición Brookhaven National Laboratory.

Este videojuego fue el primero en permitir el juego entre dos jugadores humanos. Cuatro años más tarde Steve Russell, un estudiante del Instituto de Tecnología de Massachussets, dedicó seis meses a crear un juego para computadora usando gráficos vectoriales: Spacewar.

En este juego, dos jugadores controlaban la dirección y la velocidad de dos naves espaciales que luchaban entre ellas. El videojuego funcionaba sobre un PDP-1 y fue el primero en tener un cierto éxito, aunque apenas fue conocido fuera del ámbito universitario.
En 1966 Ralph Baer empezó a desarrollar junto a Albert Maricon y Ted Dabney, un proyecto de videojuego llamado Fox and Hounds dando inicio al videojuego doméstico. Este proyecto evolucionaría hasta convertirse en la Magnavox Odyssey, el primer sistema doméstico de videojuegos lanzado en 1972 que se conectaba a la televisión y que permitía jugar a varios juegos pregrabados.

1970-1979: La eclosión de los videojuegos

Un hito importante en el inicio de los videojuegos tuvo lugar en 1971 cuando Nolan Bushnell comenzó a comercializar Computer Space, una versión de Space War, aunque otra versión recreativa de Space War como fue Galaxy War puede que se le adelantara a principios de los 70 en el campus de la universidad de Standford.

La ascensión de los videojuegos llegó con la máquina recreativa Pong que es considerada la versión comercial del juego Tennis for Two de Higginbotham. El sistema fue diseñado por Al Alcom para Nolan Bushnell en la recién fundada Atari.

El juego se presentó en 1972 y fue la piedra angular del videojuego como industria. Durante los años siguientes se implantaron numerosos avances técnicos en los videojuegos (destacando los microprocesadores y los chips de memoria). Aparecieron en los salones recreativos juegos como Space Invaders (Taito) o Asteroids (Atari).

1980-1989: La década de los 8 bits

Los años 80 comenzaron con un fuerte crecimiento en el sector del videojuego alentado por la popularidad de los salones de máquinas recreativas y de las primeras videoconsolas aparecidas durante la década de los 70.

Durante estos años destacan sistemas como Oddyssey 2 (Phillips), Intellivision (Mattel), Colecovision (Coleco), Atari 5200, Commodore 64, Turbografx (NEC). Por otro lado en las máquinas recreativas triunfaron juegos como el famoso Pacman (Namco), Battle Zone (Atari), Pole Position (Namco), Tron (Midway) o Zaxxon (Sega).
El negocio asociado a esta nueva industria alcanzó grandes cosas en estos primeros años de los 80, pero sin embargo, en 1983 comenzó la llamada crisis del videojuego, afectando principalmente a Estados Unidos y Canadá, y que no llegaría a su fin hasta 1985.

Japón apostó por el mundo de las consolas con el éxito de la Famicom (llamada en occidente como Nintendo Entertainment System), lanzada por Nintendo en 1983 mientras en Europa se decantaba por los microordenadores como el Commodore 64 o el Spectrum.
A la salida de su particular crisis los norteamericanos continuaron la senda abierta por los japoneses y adoptaron la NES como principal sistema de videojuegos. A lo largo de la década fueron apareciendo nuevos sistemas domésticos como la Master System (Sega), el Amiga (Commodore) y el 7800 (Atari) con juegos hoy en día considerados clásicos como el Tetris.

A finales de los 80 comenzaron a aparecer las consolas de 16 bits como la Mega Drive de Sega y los microordenadores fueron lentamente sustituidos por las computadoras personales basadas en arquitecturas de IBM.
En 1985 apareció Super Mario Bros, que supuso un punto de inflexión en el desarrollo de los juegos electrónicos, ya que la mayoría de los juegos anteriores sólo contenían unas pocas pantallas que se repetían en un bucle y el objetivo simplemente era hacer una alta puntuación. El juego desarrollado por Nintendo supuso un estallido de creatividad. Por primera vez teníamos un objetivo y un final en un videojuego. En los años posteriores otras compañías emularon su estilo de juego.
En el campo de las recreativas, destacaron videojuegos como Defender, Rally-X, Dig Dug, Bubble Bobble, Gauntlet, Out Run o Shinobi además de producirse un cambio en cuanto a la nacionalidad de los juegos pasando a ser Japón la mayor productora.

Otra rama de los videojuegos que creció con fuerza fue la de los videojuegos portátiles. Estos comenzaron a principios de los 70 con los primeros juegos completamente electrónicos lanzados por Mattel, los cuales difícilmente podían considerarse como videojuegos, y fueron creciendo en popularidad gracias a conversiones de recreativas como las realizadas por Coleco o adictivos microjuegos como las Game & Watch de Nintendo. La evolución definitiva de las portátiles como plataformas de videojuego llegó en 1989 con el lanzamiento de la Game Boy (Nintendo).

1990-1999: La revolución de las 3D

A principios de los años 90 las videoconsolas dieron un importante salto técnico gracias a la competición de la llamada "generación de 16 bits" compuesta por la Mega Drive, la Super Nintendo Entertainmet de Nintendo, la PC Engine de NEC, conocida como Turbografx en occidente y la CPS Changer de (Capcom).

Junto a ellas también apareció la Neo Geo (SNK) una consola que igualaba las prestaciones técnicas de un arcade pero demasiado cara para llegar de forma masiva a los hogares.

Esta generación supuso un importante aumento en la cantidad de jugadores y la introducción de tecnologías como el CD-ROM, una importante evolución dentro de los diferentes géneros de videojuegos, principalmente gracias a las nuevas capacidades técnicas.

Mientras tanto diversas compañías habían comenzado a trabajar en videojuegos con entornos tridimensionales, principalmente en el campo de los PC, obteniendo diferentes resultados desde las “2D y media” de Doom, 3D completas de 4D Boxing a las 3D sobre entornos pre-renderizados de Alone in Dark. Referente a las ya antiguas consolas de 16 bits, su mayor y último logro se produciría por el SNES mediante la tecnología 3-D de pre-renderizados de SGI, siendo su máxima expresión juegos como Donkey Kong Country y Killer Instinct. También surgió el primero juego poligonal en consola, la competencia de la SNES, Mega-Drive, lanzó el Virtual Racing, que tuvo un gran éxito ya que marcó un antes y un después en los juegos 3D en consola.

Rápidamente los videojuegos en 3D fueron ocupando un importante lugar en el mercado, principalmente gracias a la llamada "generación de 32 bits" en las videoconsolas: Sony PlayStation y Sega Saturn (principalmente en Japón); y la “generación de 64 bits” en las videoconsolas: Nintendo 64 y Atari jaguar. En cuanto a los ordenadores, se crearon las aceleradoras 3D.

La consola de Sony apareció tras un proyecto iniciado con Nintendo (denominado SNES PlayStation), que consistía en un periférico para SNES con lector de CD. Al final Nintendo rechazó la propuesta de Sony, puesto que Sega había desarrollado algo parecido sin tener éxito, y Sony lanzó independientemente PlayStation.
Por su parte los arcades comenzaron un lento pero imparable declive según aumentaba el acceso a consolas y ordenadores más potentes.

Por su parte los videojuegos portátiles, producto de las nuevas tecnologías más poderosas, comenzaron su verdadero auge, uniéndose a la Game Boy máquinas como la Game Gear (Sega), Linx (Atari) o la Neo Geo Pocket (SNK), aunque ninguna pudo hacerle frente a la popularidad de la Game Boy, siendo esta y sus descendientes (Game Boy Pocket, Game Boy Color, Game Boy Advance, Game Boy Advance SP) las dominadoras del mercado.

Hacia finales de la década la consola más popular era la PlayStation con juegos como Final Fantasy VII (Square), Resident Evil (Capcom), Winning Eleven 4 (Konami), Gran Turismo (Polyphony Digital) y Metal Gear Solid (konami).

En PC eran muy populares los FPS  (juegos de acción en primera persona) como Quake (id Softare), Unreal (Epic Megagames) o Half-Life (Valve), y los RTS (juegos de estrategia en tiempo real) como Command & Conquer (Westwood) o Starcraft (Blizzard). Además, conexiones entre ordenadores mediante internet facilitaron el juego multijugador, convirtiéndolo en la opción predilecta de muchos jugadores, y fueron las responsables del nacimiento de los MMORPG (juegos de rol multijugador online) como Ultima Online (Origin). Finalmente en 1998 apareció en Japón la Dreamcast (Sega) y daría comienzo a la “generación de los 128 bits”.

Desde el 2000: El comienzo del nuevo siglo

En el 2000 Sony lanzó la anticipada PlayStation 2 y Sega lanzó otra consola con las mismas características técnicas de la Dreamcast, nada más que venia con un monitor de 14 pulgadas, un teclado, altavoces y los mismos mandos llamados Dreamcast Drivers 2000 Series CX-1.

Microsoft entra en la industria de las consolas creando la Xbox en 2001.

Nintendo lanzó el sucesor de la Nintendo 64, la Gamecube, y la primera Game Boy completamente nueva desde la creación de la compañía, la Game Boy Advance. Sega viendo que no podría competir, especialmente con una nueva máquina como la de Sony, anunció que ya no produciría hardware, convirtiéndose sólo en desarrolladora de software en 2002.

El ordenador personal PC es la plataforma más cara de juegos pero también la que permite mayor flexibilidad. Esta flexibilidad proviene del hecho de poder añadir al ordenador componentes que se pueden mejorar constantemente, como son tarjetas gráficas o de sonido y accesorios como volantes, pedales y mandos, etc. Además es posible actualizar los juegos con parches oficiales o con nuevos añadidos realizados por la compañía que creó el juego o por otros usuarios.

domingo, 25 de septiembre de 2016

CIENCIA Y TECNOLOGÍA

Llegue al la exposición de Ciencia y Tecnología a las 12:05 de la tarde me forme en una fila de aprox. 10 metros de largos  
 Después de 10 minutos de espera nos pasaron en grupos de 30 personas por grupo, la Comisión que nos dio la platica se llama CIBIOGEM (Comisión Intersecretarial de Bioseguridad de los Organizmos Genéticamente  Modificados)  
La platica trataba del ADN, huella digital y los alimentos trasngenicos.
El ADN es Ácido de Soccido Ribonucleico los 4 fundamentos era Adenina,Timina, Guanina y  Citosina , si medimos el ADN de todo el cuerpo tendríamos 2 metros de ADN
La huella digital: La huella digital nos hace únicos y diferentes  a animales y humanos 
Los alimentos transgenicos: son los alimentos que son modificados de ADN con plantas, animales, los científicos o personas especializadas en los alimentos transgenicos  toman el gen de la planta o animal y lo integran en otro animal u otra planta, los cientificos afirman que no hace daño  a la salud humana 
De esto nos pusieron a intercambiar cubos con la iniciales
A,T,G y  C   haciendo pasar esto como los 4 fundamentos de el ADN 

viernes, 23 de septiembre de 2016

LA CALCULADORA

Una calculadora es un dispositivo que se utiliza para realizar cálculos aritméticos. Aunque las calculadoras modernas incorporan a menudo un ordenador de propósito general, se diseñan para realizar ciertas operaciones más que para ser flexibles. Por ejemplo, existen calculadoras gráficas especializadas en campos matemáticos gráficos como la trigonometría y la estadística. También suelen ser más portátiles que la mayoría de los computadores, si bien algunas PDAs tienen tamaños similares a los modelos típicos de calculadora.En el pasado, se utilizaban como apoyo al trabajo numérico ábacoscomptómetrosábacos neperianos, tablas matemáticas, reglas de cálculo y máquinas de sumar se usaba para aludir a la persona que ejercía este trabajo, ayudándose también de papel y lápiz. Este proceso de cálculo semimanual era tedioso y proclive a errores. Actualmente, las calculadoras son electrónicas y son fabricadas por numerosas empresas en tamaños y formas variados. Se pueden encontrar desde modelos muy baratos del tamaño de una tarjeta de crédito hasta otros más costosos con una impresora incorporada.

Calculadoras científicas:Los modelos más complejos, habitualmente llamados «científicos», permiten calcular funciones trigonométricas, estadísticas y de otros tipos. Las más avanzadas pueden mostrar gráficos e incorporan características de los sistemas algebraicos computacionales, siendo también programables para aplicaciones tales como resolver ecuaciones algebraicas, modelos financieros e incluso juegos. La mayoría de estas calculadoras puede mostrar números de hasta diez dígitos enteros o decimales completos en la pantalla. Se usa la notación científica para mostrar números por hasta un límite dispuesto por el diseñador del modelo, como 9,999999999 × 1099. Si se introduce un número mayor o una expresión matemática que lo arroje (como unfactorial), entonces la calculadora puede limitarse a mostrar un «error». Porque solo puede mostrar 99 dígitos, o sea, una cifra de 10.000 hexadecallones.


  • Hexadecallón es igual a un millón elevado a 16.
Este mensaje de «error» también puede mostrarse si una función u operación no está matemáticamente definida, como es el caso de la división entre cero o las raíces enésimas pares de números negativos (la mayoría de las calculadoras científicas no permiten números complejos, si bien algunas cuentan con una función especial para trabajar con ellos). Algunas calculadoras pueden distinguir entre ambos tipos de error, lo que no siempre resulta evidente para el usuario.
Sólo unas pocas compañías desarrollan y construyen nuevos modelos profesionales de ingeniería y finanzas; las más conocidas son CasioSharpHewlett-Packard (HP) y Texas Instruments (TI). Tales calculadoras son buenos ejemplos de sistemas embebido
HISTORIA:

Origen: el ábacoLas primeras calculadoras fueron ábacos, construidos a menudo como un marco de madera con cuentas deslizantes sobre alambres. Los ábacos fueron usados durante siglos antes de la adopción del sistema escrito de numerales árabes, y aún siguen siendo empleados por mercaderes y oficinistas de China y otras partes del mundo.

Siglo XVII[editar]

Pascalina en el Museo de Artes y Oficios de París.
William Oughtred inventó la regla de cálculo en 1622, siendo revelada por su alumno Richard Delamain en 1630.1 Wilhelm Schickard construyó la primera calculadora automática, llamada «Reloj Calculador» en 1623.2 Unos veinte años después, en 1642, el filósofo y científico francés Pascal inventó la primera calculadora mecánica. El aparato, llamado Pascalina, se asemejaba a una calculadora mecánica de los años cuarenta, que fue usado para el cálculo de impuestos en Francia hasta 1799. El filósofo alemán Gottfried Leibniz también construyó una máquina calculadora.

Siglo XIX[editar]

Charles Babbage desarrolló el concepto aún más, abriendo el camino hacia los computadores programables, si bien la máquina que construyó era demasiado pesada como para ser operable.
En el último cuarto del siglo XIX se presenciaron importantes avances en las calculadoras mecánicas:
  • En 1872 Frank Stephen Baldwin inventó la calculadora de rueda dentada, que también fue desarrollada independientemente dos años después por W. T. Odhner. El modelo de Odhner y otros similares de otras compañías vendieron varios miles de unidades.
  • En 1878 fue patentada en Nueva York la Verea Direct Multiplier, por el inventor español Ramón Verea. Su máquina fue la primera en realizar multiplicaciones de forma directa, llegando a resolver 698.543.721 x 807.689 en veinte segundos.
  • Dorr E. Felt inventó en los Estados Unidos el comptómetro en 1884, la primera máquina que operada por teclas que permitía sumar y calcular (a diferencia de los diseños anteriores, que exigía operar palancas separadas). En 1886 se unió a Robert Tarrant para constituir la Felt & Tarrant Manufacturing Company, que fabricó miles de comptómetros.
  • En 1891 William S. Burroughs empezó a comercializar su calculadora sumadora impresora. La Burroughs Corporation se convirtió en una de las principales compañías en el mercado de máquinas de contabilidad y computadoras.
  • La calculadora Millionaire se presentó en 1893. Permitía la multiplicación directa por cualquier dígito.
  • LINEA DEL TIEMPO:

LA LICUADORA

Una licuadora  es un electrodoméstico de cocina para triturar los alimentos consiguiendo purés más o menos líquidos.Consta de un motor eléctrico en una carcasa generalmente de metal o plástico desde donde por medio de un eje que se conecta al vaso (en cuyo fondo hay unas cuchillas en forma de hélice)que hace girar las aspas de la misma, generando un torbellino que atrae los alimentos hacia las cuchillas giratorias moliéndolos o bien triturándolos. Tiene entre tres y cinco anchas y afiladas cuchillas que sirven para cortar y mezclar el alimento.
El motor actúa a muchas revoluciones y puede funcionar en diferentes velocidades, según se lo vaya regulando. Es un motor de inducción de corriente alterna, en unos bobinados del campo de estátor, generando una fuerza magnética que se transmite al rotor, a una potencia de 200 W; dependiendo de la marca, las aspas giran por la fuerza de rotación a través del acoplamiento con el eje del rotor, con unas 2000 revoluciones por minuto aproximadamente.
LINEA DEL TIEMPO:
ANTECEDENTES HISTÓRICOS:


El inventor de la licuadora, inicialmente conocida como vibradora, fue Stephen J. Poplawski, un norteamericano de origen polaco, radicado en el estado norteamericano de Wisconsin, que ya en su infancia mostró una obsesión por inventar dispositivos destinados a la mezcla de bebidas.
En el año 1922, después de 7 años de experimentación, Poplawski patentó una licuadora, y anotó que era el primer aparato mezclador que tenía un elemento agitador montado en el fondo de una taza, y que mezclaba bebidas malteadas cuando la taza se situaba en una cavidad en la base del aparato.
Poplawski, en el año 1953, durante un litigio de patentes, dijo que en el año 1922 no pensaba en la licuadora para la maceración de frutas y verduras, pero sí como triturador de alimentos.
En sus orígenes se empleaban principalmente en hospitales donde se precisaba de un medio para triturar y mezclar diferentes medicamentos y alimentos. Posteriormente con la masiva difusión de pastillas concentradas el uso médico se redujo y se difundió masivamente en los hogares.





LA BICICLETA

La computadora es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Un ordenador está formado, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa.
Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etc.). Un es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones aritmético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, esto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, sobre la base de datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.a no funciona sin la esta máquina puede ser de dos tipos diferentes, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generaleles)
LINEA DEL TIEMPO:
ANTECEDENTE HISTORICOS: 1. El Abaco
Quizás fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.
2. La Pascalina
El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Blas Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.
3. Historia de la computadora
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en Las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de poblaciónde 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
4. La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
5. Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU) Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
6. Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala(LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
7. Generaciones De La Computadora
Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se enuncian a continuación.
Primera Generación
Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas)

Almacenamiento de la información en tambor magnético interior.
Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban.
Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la programación resultaba larga y compleja.

Alto costo.
Uso de tarjetas perforadas para suministrar datos y los programas.

Segunda Generación
Transistores
Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas, más pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos estos motivos, la densidad del circuito podía ser aumentada sensiblemente, lo que quería decir que los componentes podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio.

Tercera Generación
Circuito integrado (chips)
Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
Generalización de lenguajes de programación de alto nivel. Compatibilidad para compartir software entre diversos equipos.

Cuarta Generación
Microcircuito integrado
El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La microminiaturización permite construir el microprocesador, circuito integrado que rige las funciones fundamentales del ordenador.

Quinta Generación Y La Inteligencia Artificial
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.

8. Pioneros de la computación
Atanasoff Y Berry
Una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer) Un estudiante graduado, Clifford Berry, fue una útil ayuda en la construcción de la computadora ABC.

Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una placa con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."
Pascal
Fue el primero en diseñar y construir una máquina sumadora. Quería ayudar a su padre, quien era cobrador de impuestos, con los cálculos aritméticos. La máquina era mecánica y tenía un sistema de engranes cada uno con 10 dientes; en cada diente había grabado un dígito entre el 0 y el 9. Así para representar un número, el engrane del extremo derecho se movía hasta tener el dígito de las unidades, el engrane que le seguía a la izquierda tenía el dígito de las decenas, el siguiente el de las centenas y así sucesivamente. Los números se representaban en la máquina como nosotros lo hacemos en notación decimal.

Para realizar una suma o una resta, se activaba el sistema de engranes que hacía girar cada uno de ellos. Comenzaba por el extremo derecho y seguía, uno por uno, hacia la izquierda. Cuando la suma en un engrane excedía el número 9, automáticamente el engrane inmediato a la izquierda se movía un décimo de vuelta aumentando en 1 la cantidad que representaba. Así Blaise Pascal logró resolver el problema del acarreo de dígitos para las máquinas sumadoras y obtuvo una máquina que podía sumar cualquier par de números.
Charles Babagge
Sus máquinas y su legado
El Babbage del que todo mundo ha leído es, sin embargo, el inventor fracasado que se pasó toda su vida intentando construir la primera computadora de uso general de la historia y que, pese a haber fracasado, hizo aportaciones muy significativas al desarrollo de la informática.

Muchas son las visiones románticas y hasta un tanto fantasiosas que se han escrito sobre la vida de Babbage. Mucho es lo que se ha dicho sobre sus "maravillosas máquinas", pero también mucha es la confusión que se ha desarrollado en torno a sus verdaderas aportaciones y a las razones por las que nunca pudo completar la construcción de las mismas.
Wilkes nos ofrece quizá una de las visiones menos apasionadas del genio de Babbage, y nos hace ver que realmente la primera máquina que Babbage intentaba construir, llamada Máquina Diferencial (Difference Engine) sólo era capaz de tabular polinomios, y que requería, de cualquier manera, bastante trabajo con lápiz y papel. La idea no era realmente tan buena como Babbage pensaba, pero él nunca lo hubiera admitido. Sin embargo, este proyecto tuvo un impacto muy importante en la investigación aplicada en Inglaterra, pues el gobierno británico decidió financiarlo con una fuerte suma de dinero, en su afán de perfeccionar la impresión de las tablas de navegación, tan comunes en aquella época. Joseph Clement, tal vez el mejor fabricante de herramientas del Reino Unido, fue asignado para trabajar con Babbage en el diseño de esta máquina. Sin embargo, tras una fuerte disputa Babbage acabó quedándose solo y sin un centavo de las £34,000 que invirtió en el proyecto después de 10 años de intenso trabajo. Se ha especulado que la máquina nunca se construyó porque todavía no se contaba con la tecnología necesaria, pero eso no parece ser cierto, dado que Georg y Edvard Scheutz, dos ingenieros Suecos que leyeron un artículo sobre la máquina de Babbage, fueron capaces de construir una Máquina Diferencial unos 10 años después de que el proyecto original se abandonara. La máquina funcionó y fue vendida al Observatorio Dudley en Nueva York, aunque se dice que nunca lo hizo muy bien y por ello pronto cayó en desuso. Una réplica de esta máquina se conserva en la oficina del Censo de Londres.
Realmente, la aportación clave de Babbage a la computación moderna vino con su siguiente máquina: La Máquina Analítica (Analytical Engine), el cual, de haberse construido, habría sido efectivamente la primera computadora de uso general de la historia. Babbage empezó a trabajar en este nuevo proyecto en 1834, pese a su fracaso con su máquina anterior, y continuó haciéndolo durante toda su vida. Su modelo fue refinado muchas veces, y a lo largo de este proceso, Babbage tuvo muchas ideas visionarias sobre las computadoras. Por ejemplo, sugirió el uso de tarjetas perforadas para controlar su máquina, y anticipó el uso de las mismas para representar un algoritmo e incluso inventó el concepto de bucles o ciclos en programación. También anticipó el uso de microprogramación, aunque dejó huecos importantes en su trabajo, y falló en anticipar cuestiones tan obvias hoy en día como es el uso de variables en un programa. Todo este trabajo, habría permanecido prácticamente desconocido por años de no haber sido por Ada, Condesa de Lovelace, la hija del famoso poeta Lord Byron, de quien hablaremos la próxima ocasión, que se dio a la tarea de difundir las ideas de Babbage sobre su máquina. Se ha llegado a decir sobre la Máquina Analítica, que sería injusto afirmar que Babbage fracasó también en su intento por construirla, pues nunca intentó realmente hacerlo, sabedor de que resultaría prácticamente imposible volver a conseguir fondos para financiar tal proyecto. Sin embargo, sus planos y notas fueron tan detallados que en 1991 el Museo Nacional de Ciencia y Tecnología de Londres construyó una máquina basándose en ellos y usando sólo materiales y herramientas disponibles en la época de Babbage. La máquina ha funcionado desde entonces, sin ningún problema. ¿Por qué no pudo entonces Babbage lograr fructificar su sueño? La respuesta sigue siendo un misterio. Hay quienes dicen que le faltó habilidad política para negociar con el gobierno, pero la verdad es que después de haberse gastado una fortuna y no recibir nada a cambio, creo que el gobierno de cualquier país se mostraría reacio a seguir invirtiendo en el mismo proyecto. Tal vez la verdadera razón haya sido la naturaleza idealista de Babbage que le impedía materializar muchas de sus maravillosas visiones, a la luz de su obsesión por lo perfecto.
Babbage nunca tuvo miedo a ser olvidado ni se sintió decepcionado por la indiferencia que sus contemporáneos mostraron por su trabajo. Cerca del final de su vida escribió: "No tengo miedo de dejar mi reputación a cargo de aquel que tenga éxito construyendo mi Máquina Analítica, porque él y sólo él será capaz de apreciar totalmente la naturaleza de mi esfuerzo y el valor de sus resultados". Nada más cierto que eso, puesto que a pesar de que Charles Babbage murió en total soledad la mañana del 18 de octubre de 1871 a sólo 2 meses de volverse un octogenario, sus aportaciones serían realmente apreciadas sólo hasta que las primeras computadoras digitales fueron construidas, a mediados del presente siglo. Sus experimentos dejarían huella profunda en el trabajo sobre autómatas del español Leonardo Torres de Quevedo a principios de este siglo; posiblemente la idea de Herman Hollerith de usar tarjetas perforadas fue derivada por la sugerencia de Babbage, y se ha llegado a especular que la Máquina Analítica pudo haber sido incluso la fuente principal de inspiración del modelo teórico de la computadora moderna desarrollado por el matemático Alan Turing y que hoy se conoce como "máquina de Turing". Con tan convincente evidencia de la importancia de sus ideas tal vez no importe tanto que Babbage no haya logrado construir sus máquinas después de todo, pues sus aportaciones resultaron igualmente significativas de cualquier forma.
Se sabe que Babbage nunca recibió remuneración alguna por su trabajo de 10 años en la Máquina Diferencial, por lo que el Parlamento Inglés decidió ofrecerle un título de nobleza a cambio (le ofrecieron el título de Barón) Babbage rehusó aceptarlo, pidiendo mejor una pensión vitalicia que nunca le fue concedida. ¿Un error de apreciación? No realmente, si consideramos que lo que realmente recibió a cambió del trabajo de toda una vida fue algo más valioso que cualquier título de nobleza: un sitio privilegiado en la historia de la informática, el de padre de la computación moderna.
Gottfried Wihelm Leibniz
Demostró las ventajas de utilizar el sistema binario en lugar del decimal en las computadoras mecánicas.
Inventó y construyó una máquina aritmética que realizaba las cuatro operaciones básicas y calculaba raíces cuadradas.
Nació el 1 de julio de 1646 en Leipzig, Sajonia (ahora Alemania)
Murió el 14 de noviembre de 1716 en Hannover, Hannover (ahora Alemania)
Leibniz ha sido uno de los más grandes matemáticos de la historia, se le reconoce como uno de los creadores del Cálculo Diferencial e Integral; pero fue un hombre universal que trabajó en varias disciplinas: lógica, mecánica, geologíajurisprudencia, historia, lingüística y teología.

Inventó una máquina aritmética que empezó a diseñar en 1671 y terminó de construir en 1694; era una máquina mucho más avanzada que la que había inventado Pascal y a la que llamó "calculadora secuencial o por pasos", en alemán: "dice Getrocknetsrechenmaschine". La máquina no sólo sumaba y restaba, sino que además podía multiplicar, dividir y sacar raíz cuadrada. Sin embargo, en esa época el desarrollo de la técnica no se encontraba en condiciones de producir en serie las piezas de gran precisión indispensables para el funcionamiento de la máquina.
El modelo que construyó Leibniz nunca funcionó correctamente; sin embargo, en 1794 se construyó un modelo funcional de la calculadora de Leibniz que actualmente se exhibe en la Real Sociedad de Londres. Esta última máquina tampoco resultó confiable y no fue sino hasta 1820 cuando se fabricó un aparato infalible y comercial capaz de realizar las cuatro operaciones aritméticas fundamentales.
John Von Neumann : un genio incomparable
Su interés por la computación
Con el advenimiento de la Segunda Guerra Mundial, von Neumann hubo de abandonar sus estudios en matemáticas puras, y concentrarse en problemas más prácticos para servir al Gobierno del que ahora era nacional. Fue consultor en proyectos de balística, en ondas de detonación, y eventualmente, se involucró en el desarrollo de la bomba atómica, en donde demostró la factibilidad de la técnica de implosión que más tarde se usaría en la bomba que detonó en Nagasaki. Sin embargo, debido a su valía como consultor en otras agencias gubernamentales ligadas a la guerra, von Neumann fue uno de los pocos científicos a quien no se le requirió permanecer de tiempo completo en Los Álamos. Fue precisamente durante la primera mitad de 1943, en plena guerra, que se interesó por primera vez en la computación. Tras un viaje a Inglaterra, le dijo a Voblen que creía sumamente importante que se utilizaran máquinas para acelerar los complejos cálculos involucrados con su trabajo. Aunque comenzaron a utilizar equipo de IBM, éste no satisfizo las necesidades del Proyecto Manhattan, y von Neumann empezó pronto a buscar opciones en otros lados. En 1944 sólo había unos pocos proyectos para desarrollar computadoras en los Estados Unidos: Howard Aiken en Harvard, George Stibitz en Laboratorios Bell, Jan Schilt en la Universidad Columbia, y Presper Eckert y John W. Mauchly, en la Universidad de Pennsylvania. Aunque von Neumann contactó a los 3 primeros científicos y estuvo en contacto con sus máquinas, la única computadora con la que realmente se involucró a fondo fue la última, llamada ENIAC (Electronic Numerical Integrator and Computer), que durante mucho tiempo fue ignorada por la comunidad científica, y que con el apoyo de von Neumann fue finalmente tomada en serio hasta convertirse en un proyecto de primera línea. Curiosamente, la ENIAC tenía una arquitectura en paralelo, aunque casi carecía de memoria (sólo podía almacenar 20 palabras), y otra máquina más ambiciosa, llamada EDVAC (Electronic Discrete Variable Arithmetic Computer) nació del deseo de sus diseñadores de construir una máquina "más útil" que operara en serie. Desgraciadamente, la reputación de von Neumann tenía también su lado negativo, y debido a una indiscreción a la prensa y al hecho de que firmó como autor único un borrador del EDVAC, el proyecto no sólo perdió su status de secreto, sino que se volvió objeto de una enorme controversia, pues Mauchly y Eckert no sólo se disgustaron mucho por no haber recibido el crédito debido, sino que fueron despedidos de la Universidad de Pennsylvania ante su negativa de ceder a la institución los derechos del ENIAC. Este error le costó a la Universidad de Pennsylvania el perder su status de universidad de primer nivel en los Estados Unidos, y todavía hoy se recuerda a éste como uno de sus peores momentos históricos. Eventualmente, la guerra terminó, el EDVAC se volvió del dominio público, Mauchly y Eckert fundaron su propia empresa y von Neumann regresó a Princeton con el sueño de construir su propia máquina.

Sus Últimos Años
Debido a los tropiezos que tuvo inicialmente para conseguir dinero para construir su computadora, varias universidades le ofrecieron trabajo a von Neumann después de la guerra, y aunque estuvo cerca de aceptar al menos una de estas ofertas, fue leal al IEA, y finalmente logró conseguir los fondos que necesitaba para su proyecto con ayuda de Princeton y la RCA. Su idea era construir una máquina similar a EDVAC pero más poderosa y más rápida. La computadora IAS fue eventualmente construida en los 50s, y su diseño ha servido como inspiración para la mayoría de las computadoras modernas, si bien la arquitectura que hoy recibe su nombre no fue realmente producto de su inventiva. Sus principales contribuciones en computación fueron: la noción del uso de monitores para visualizar datos, la invención del diagrama de flujo, la teoría de los autómatas celulares, incontables técnicas de cómputo matemático, fue co-autor de la teoría de juegos que dio pie al famoso método de Montecarlo, y fue co-autor del otrora famoso libro: "Cybernetics: Or Control and Communication in the Animal and the Machine" en el que explicaba junto con Norbert Wiener la manera en que los cerebros electrónicos podrían efectuar tareas humanas de diferentes grados de dificultad.

En octubre de 1954 se volvió miembro de la Comisión de Energía Atómica, por lo que se tuvo que mudar junto con su esposa a Georgetown, en Washington, D.C. A la vez, sirvió como consultor para la IBM, en donde conoció a John Backus mientras desarrollaba el FORTRAN. Curiosamente, von Neumann desdeñó el trabajo de Backus pensando que nadie requeriría jamás usar un lenguaje de programación de más alto nivel que el lenguajebinario que él tan bien conocía. En el verano de ese mismo año, se lastimó el hombro izquierdo en una caída, y en la cirugía posterior se descubrió que tenía cáncer en los huesos. Pese a saberse cerca de la muerte, continuó con su tremendo ritmo de trabajo, y en sus últimos días el secretario de defensa, y los secretarios del ejército, la marina y la fuerza aérea norteamericanas, se daban cita alrededor de la cama de von Neumann en el hospital Water Reed en Washington, D.C. Sólo médicos y personal con autorización militar podían verlo, ante el temor que revelara secretos importantes mientras estaba sedado. Para ese entonces, von Neumann había recibido un sinnúmero de doctorados Honoris Causa, la medalla presidencial al mérito, el premio Enrico Fermi y el premio Albert Einstein. Aunque nunca practicó en vida la religión Católica, bajo la cual fue bautizado por sus padres, al sentir cerca su fin pidió que un sacerdote le diera los sacramentos. Sus planes de irse a trabajar como profesor a la Universidad de California en Los Ángeles nunca se volverían realidad, porque el "mejor matemático del mundo", como lo llamara Herman H. Goldstine, falleció el 8 de febrero de 1957. Su leyenda, sin embargo, sigue viva hasta nuestros días en los corredores de Princeton y en una pléyade de libros alrededor del mundo.
Ada Byron
Ada Byron conoció a Charles Babbage en 1833, cuando ella tenía 18 años y el 42. Quedó tan impresionada por las ideas sobre las máquinas que Babbage inventaba que decidió estudiar matemáticas para poder ayudar a su amigo en lo que se refería a la rama teórica de sus inventos. Se convirtió, con el paso de los años, en una gran matemática y científica. Trabajó siempre muy cerca de Babbage en el diseño de máquinas computadoras y muy en particular en el diseño de la "máquina analítica". A propósito escribió:

"La característica que distingue a la máquina analítica, es la inclusión en ella del principio que Jacquard concibió para regular la fabricación, mediante tarjetas perforadas, de los más complicados modelos de brocados. Al capacitar a los mecanismos para combinar entre sí símbolos generales en sucesiones de variedad y extensión ilimitadas, se establece un eslabón entre las operaciones materiales y los procesos mentales abstractos de la rama más teórica de la ciencia matemática. Se desarrolla un lenguaje nuevo, amplio y poderoso, para su empleo futuro en el análisis, cuyas verdades se podrán manejar de modo que su aplicación sea más práctica y precisa para la humanidad de lo que hasta ahora han hecho las medidas a nuestro alcance..."
Ada Byron desarrolló de manera teórica el primer programa que la máquina analítica utilizó, pero su trabajo no se limitó a la parte científica; cuando el gobierno les retiro el apoyo financiero, Ada apostó en las carreras de caballos y empeñó todas sus joyas para obtener el dinero que se necesitaba en la construcción de la máquina.
Herman Hollerith
A los 19 años se graduó en la escuela de minería de la Universidad de Columbia y empezó a trabajar en la Oficina de Censos de los Estados Unidos. En 1880 se realizó el primer gran censo de ese país y la información se escribió en tarjetas extremadamente largas que debían acomodarse y contarse manualmente en las clasificaciones deseadas: edad, sexo, ocupación, etcétera, lo cual obligaba a que se reacomodaran y contaran varias veces.
Hollerith se propuso desarrollar un método más práctico para manejar estos datos. En 1889 termino su "máquina tabuladora eléctrica" que lograba registrar datos en tarjetas perforadas. Gracias a este invento se lograban tabular de 50 a 75 tarjetas por minuto y conteos que manualmente se hubieran terminado en años, podían lograrse en pocos meses.
Herman Hollerith fundó en 1896 la Compañía de Máquinas Tabuladoras para promover el uso comercial de su invento. Más tarde la compañía cambió al nombre de International Business Machine (IBM).

Howard H. Aiken
Construyó una computadora electromecánica programable siguiendo las ideas introducidas por Babbage
A partir de 1939 Howard Aiken, de la Universidad de Harvard, en asociación con ingenieros de la compañía IBM, trabajó durante 5 años en la construcción de una computadora totalmente automática, la "Harvard Mark I" que medía 15 metros de largo por 2.4 de altura.
Esta máquina se controlaba con tarjetas perforadas, podía realizar cinco operaciones fundamentales: suma, resta,
multiplicación, división y consulta de tablas de referencia. Los datos entraban mediante tarjetas perforadas y salían a través de una máquina electrónica.

Konrad Zuse
Introdujo interruptores magnéticos, llamados relevadores eléctricos en las computadoras.
Introdujo el control programado mediante cinta perforada lo que permitió automatizar el proceso de cálculo.
Construyó la primera computadora electromecánica programable.
Zuse continuó perfeccionando la computadora y en 1939 terminó una segunda versión a la que llamó Z2, dos años más tarde presentó la Z3, considerada por los expertos como la primera computadora totalmente programable. Esta computadora contenía en su procesador y en su memoria cerca de 2,600 relevadores que eran interruptores magnéticos que permitían introducir en las máquinas la representación binaria de los números.

En 1941 Zuse y un amigo solicitaron al gobierno alemán un patrocinio para construir una computadora electrónica más rápida que utilizara tubos de vacío. Sin embargo la ayuda no les fue otorgada y la máquina se quedó en proyecto.
Alan Mathison Turing
Diseñó la primera computadora electrónica digital de bulbos.
Turing fue un gran matemático, lógico y teórico de la computación. Cundo era estudiante de postgrado en la universidad de Princeton en 1936, publicó el artículo "On computable numbers", que estableció las bases teóricas para la computación moderna. En él describió lo que después se llamó la "Máquina de Turing": un dispositivo teórico que leía instrucciones de una cinta de papel perforada y ejecutaba todas las operaciones de una computadora. El artículo también fijó los límites de las ciencias de la computación al demostrar que existen problemas que ningún tipo de computadora podrá resolver.

Después de doctorarse en 1938, Turing tuvo la oportunidad de poner sus teorías en práctica. Bajo su dirección se construyó "Colossus", una máquina cuyo propósito era descifrar el código secreto militar alemán y que fue terminada en 1943. En la actualidad se le considera la primera computadora digital electrónica.
J. Presper Eckert y John W. Mauchly

 Construyeron la computadora electrónica más grande del mundo y utilizaron para ello 18,000 bulbos.

J. Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, inventaron y desarrollaron en 1946 la ENIAC, acrónimo de Electronic Numerical Integrator and Calculator. Fue la mayor computadora de bulbos construida para uso general. Cuando ENIAC funcionaba correctamente, la velocidad de cálculo era entre 500 y 1000 veces superior a las calculadoras electromecánicas de su tiempo, casi la velocidad de las calculadoras de bolsillo de hoy.
Años más tarde Eckert y Mauchly construyeron la UNIVAC, la primera computadora que manejó información alfabética y numérica con igual facilidad.