lunes, 1 de octubre de 2007

Derecho Informático

DERECHO INFORMÁTICO

El Derecho Informático, ha sido analizado desde diversas perspectivas. Por un lado el Derecho Informático se define como un conjunto de principios y normas que regulan los efectos jurídicos nacidos de la interrelación entre el Derecho y la informática.
Por otro lado hay definiciones que establecen que es una rama del derecho especializado en el tema de la informática, sus usos, sus aplicaciones y sus implicaciones legales.
Se considera que el Derecho Informático es un punto de inflexión del Derecho, puesto que todas las áreas del derecho se han visto afectadas por la aparición de la denominada Sociedad de la Información, cambiando de este modo los procesos sociales y, por tanto, los procesos políticos y jurídicos. Es aquí donde hace su aparición el Derecho Informático, no tanto como una rama sino como un cambio .

DIFERENCIAS DEL DERECHO INFORMÁTICO CON LA INFORMÁTICA JURÍDICA

Derecho Informático se define como un conjunto de principios y normas que regulan los efectos jurídicos. Es una rama del derecho especializado en el tema de la informática, sus usos, sus aplicaciones y sus implicaciones legales. “El Derecho Informático es la aplicación del derecho a la informática permitiendo que se adopten o creen soluciones jurídicas a los problemas que surgen en torno al fenómeno informático” (Núñez Ponce, Julio: 1996: 22). Esta nueva disciplina jurídica tiene método e instituciones propias que surgen de un fenómeno que tiene implicancias globales y que por tanto permite tener bases doctrinales y principios similares con las peculiaridades propias de cada ordenamiento jurídico.

La informática jurídica estudia el tratamiento automatizado de: las fuentes del conocimiento jurídico a través de los sistemas de documentación legislativa, jurisprudencial y doctrinal (informática jurídica documental); las fuentes de producción jurídica, a través de la elaboración informática de los factores lógico-formales que concurren en el proceso legislativo y en la decisión judicial (informática jurídica decisional); y los procesos de organización de la infraestructura o medios instrumentales con los que se gestiona el Derecho (informática jurídica de gestión).

El Derecho Informático es el sector normativo de los sistemas, dirigido a la regulación de las nuevas tecnologías de la información y la comunicación, es decir, la informática y la telemática. Asimismo integran el Derecho Informático las proposiciones normativas, es decir, los razonamientos de los teóricos del Derecho que tienen por objeto analizar, interpretar, exponer, sistematizar o criticar el sector normativo que disciplina la informática y la telemática. Las fuentes y estructura temática del Derecho Informático afectan las ramas del Derecho Tradicionales.

Asimismo se inscriben en el ámbito del Derecho Público: El problema de la regulación del flujo internacional de datos informatizados, que interesa al derecho internacional público; la Libertad Informática, o defensa de las libertades frente a eventuales agresiones perpetradas por las tecnologías de la información y la comunicación, objeto de especial atención por parte del Derecho Constitucional y Administrativo; o los delitos informáticos, que tienden a configurar un ámbito propio en el Derecho Penal Actual.

Mientras que inciden directamente en el Ámbito del Derecho Privado cuestiones, tales como: Los contratos informáticos, que pueden afectar lo mismo al hardware que al software, dando lugar a una rica tipología de los negocios en la que pueden distinguirse contratos de compraventa, alquiler, leasing, copropiedad, multicontratos de compraventa, mantenimiento y servicios; como los distintos sistemas para la protección jurídica de los objetos tradicionales de los Derechos Civiles y Mercantiles.

Ese mismo carácter Interdisciplinario o "espíritu transversal", que distingue al derecho informático, ha suscitado un debate teórico sobre: si se trata de un sector de normas dispersas pertenecientes a diferentes disciplinas jurídicas o constituye un conjunto unitario de normas (fuentes), dirigidas a regular un objeto bien delimitado, que se enfoca desde una metodología propia, en cuyo supuesto entraría una disciplina jurídica autónoma.

Ahora bien, con los avances tecnológicos que se han dado en la actualidad, como es el caso de los instrumentos digitales, que nos permiten accesar a la información de una manera rápida y sencilla, se nos abren puertas para mezclar estos dos instrumentos y expandir de modo más simple esa información.
El problema surge en el momento que los derechos de los creadores de las obras se ven violentados, debido a que con las nuevas tecnologías facilitan la transmisión de dichas obras sin el consentimiento del autor, y en muchas ocasiones con un afán de lucro, lo cual afecta el derecho patrimonial del autor, de los herederos y de los adquirentes por cualquier título.

Es por eso que es importante crear normas en las cuales se contemple la forma en que se registrarán las publicaciones; los permisos o autorizaciones que se deberán solicitar; los medios para hacerlo, y ante qué autoridad deberán realizarse, los delitos en que se puede incurrir, y las sanciones aplicables.

La abogacía es una función social al servicio de las distintas especialidades, incluida la jurídica. Justicia que puede ser ejercida en Internet, en informática. El rol del abogado en la sociedad virtual será cada vez más frecuente e importante, dado el constante crecimiento del comercio electrónico y de los conflictos legales que surgen en forma cada vez más frecuente en el ciberespacio. Los aspectos jurídicos de Internet como por ejemplo la protección de los datos personales, los derechos de autor, la contratación electrónica, los nombres de dominio, la firma digital, el tele trabajo, los delitos informáticos, efectos legales del PIA 2000, requieren abogados cada vez más preparados y especializados en Derecho Informático.

“La abogacía es una de las profesiones más trascendentales de la vida social; no sólo porque se ejercita utilizando el derecho como su instrumento fundamental en la búsqueda de la justicia- que es por sí un elevado valor social- sino porque es menester directamente relacionado con los bienes jurídicos del individuo de la sociedad, cuya protección organiza la ley” .Esta profesión, dada la amplitud del Derecho, requiere la especialización para brindar un mejor servicio al cliente y poderse así profundizar sistemáticamente en una determinada parcela del conocimiento jurídico, para solucionar los problemas legales que plantea la Informática, la especialidad adecuada es el Derecho Informático.

El Derecho Informático; trata sobre los riesgos del ejercicio ilegal y la defensa de los principios rectores de la abogacía que debe mantenerse incólume, aún con el surgimiento de nuevas formas, como es Internet y con nuevas especialidades como la del Derecho Informático.

Historia cronológica de la computación

HISTORIA CRONOLÓGICA DE LAS COMPUTADORAS

Por toda la historia, el desarrollo de máquinas matemáticas ha ido de mano en mano con el desarrollo de computadoras. Cada avance en uno es seguido inmediatamente por un avance en el otro. Cuando la humanidad desarrolló el concepto del sistema de conteo en base diez, el ábaco fue una herramienta para hacerlo más fácil. Cuando las computadoras electrónicas fueron construidas para resolver ecuaciones complejas, campos como la dinámica de fluidos, teoría de los números, y la física química floreció.

500 a.C. - 1822 d.C.

Esta sección comienza desde la aparición del ábaco en China y Egipto, alrededor de 500 años a.C. hasta la invención del Motor Diferencial por Charles Babbage, en 1822. El descubrimiento de los sistemas por Charles Napier, condujo a los avances en calculadoras. Por convertir multiplicación y división en suma y resta, un número de máquinas (incluyendo la regla deslizante) puede realizar estas operaciones. Babbage sobrepasó los límites de la ingeniería cuando inventó su motor, basado en este principio.

En esta etapa se inventaron las siguientes:

El ábaco
El ábaco fue la primera máquina conocida que ayudaba a ejecuta computaciones matemáticas. Se piensa que se originó entre 600 y 500 a.C., o en China o Egipto. Pelotas redondas, usualmente de madera, se resbalaban de un lado a otro en varas puestas o alambres, ejecutaban suma y substracción. Como una indicación de su potencial, se usa el ábaco todavía en muchas culturas orientales hoy en día.

Napier Bones
Justo antes de morir en 1617, el matemático escocés John Napier (mejor conocido por su invención de logaritmos) desarrolló un juego de palitos para calcular a las que llamó "Napier Bones." Así llamados porque se tallaron las ramitas de hueso o marfil, los "bones" incorporaron el sistema logarítmico. Los Huesos de Napier tuvieron una influencia fuerte en el desarrollo de la regla deslizante (cinco años más tarde) y máquinas calculadoras subsecuentes que contaron con logaritmos.

Regla deslizante
En 1621 la primera regla deslizante fue inventada por el del matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Uno de los primeros aparatos de la informática analógica, la regla deslizante se usó normalmente (en un orden lineal) hasta que a comienzos de 1970, cuando calculadoras portátiles comenzaron a ser más popular.

Calculadora mecánica
En 1623 la primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacia rodar cilindros en un albergue grande. Se comisionó un Reloj Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por fuego antes de que se terminara.

Pascalina
En 1642 la primera calculadora automática mecánica fue inventada por el matemático francés y filósofo Blaise Pascal. Llamado la "Pascalina", el aparato podía multiplicar y substraer, utilizando un sistema de cambios para pasar dígitos. Se desarrolló la máquina originalmente para simplificar al padre de Pascal para la recolección del impuesto. Aunque la Pascalina nunca fue un éxito comercial como Pascal había esperado, el principio de los cambios era fue útil en generaciones subsecuentes de calculadoras mecánicas.

La máquina de multiplicar
En 1666 la primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una serie de ruedas, cada representaba, dieses, cientos, etc. Un alfiler del acero movía los diales para ejecutar las calculaciones. A diferencia de la Pascalina, el aparato no tenía avanzó automático de en columnas.

Máquina calculadora
La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried von Leibniz en 1673. El aparato era una partida de la Pascalina, mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranaje. Aunque el aparato podía ejecutar multiplicación y división, padeció de problemas de fiabilidad que disminuyeron su utilidad.

El jugador de ajedrez automático
En 1769 el Jugador de Ajedrez Autómata fue inventado por Barón Empellen, un noble húngaro. El aparato y sus secretos se le dieron a Johann Nepomuk Maelzel, un inventor de instrumentos musicales, quien recorrió Europa y los Estados Unidos con el aparato, a finales de 1700 y temprano 1800. Pretendió ser una máquina pura, el Autómata incluía un jugador de ajedrez "robótico". El Automatón era una sensación dondequiera que iba, pero muchas comentaristas, incluso el Edgar Allen Poe famoso, ha escrito críticas detalladas diciendo que ese era una "máquina pura." En cambio, generalmente, siempre se creyó que el aparato fue operado por un humano oculto en el armario debajo del tablero de ajedrez. El Autómata se destruyó en un incendio en 1856.

La máquina lógica
Se inventó la primera máquina lógica en 1777 por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.

Jacquard Loom
El "Jacquard Loom" se inventó en 1804 por Joseph-Marie Jacquard. Inspirado por instrumentos musicales que se programaban usando papel agujereados, la máquina se parecía a una atadura del telar que podría controlar automáticamente de dibujos usando una línea tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba formar la base de muchos aparatos de la informática e idiomas de la programación.

Calculadoras de producción masiva
La primera calculadora de producción masiva se distribuyó, empezando en 1820, por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el "aritmómetro" de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.

Artefacto de la diferencia
En 1822 Charles Babbage completó su "Artefacto de la Diferencia," una máquina que se puede usar para ejecutar calculaciones de tablas simples. El Artefacto de la Diferencia era una asamblea compleja de ruedas, engranajes, y remaches. Fue la fundación para Babbage diseñar su "Artefacto Analítico," un aparato del propósito genera que era capaz de ejecutar cualquiera tipo de calculación matemática. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de computaciones que ahora se consideran al corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora moderna digital que estaba a seguir. Se construyó el artefacto analítico finalmente por un equipo de ingenieros en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento Babbage hoy se sabe como el "Padre de Computadoras Modernas".

1823 - 1936

Durante este tiempo, muchas de las culturas del mundo fueron avanzando desde sociedades basadas en la agricultura a sociedades basadas industrialmente. Con estos cambios vinieron los avances matemáticos y en ingeniería los cuales hicieron posible máquinas electrónicas que pueden resolver argumentos lógicos complejos. Comenzando con la publicación de Boolean Algebra de George Boole y terminando con la fabricación del modelo de la Máquina de Turín para máquinas lógicas, este período fue muy próspero para computadoras.

En esta etapa se inventaron las siguientes:

Algebra de Boole
En 1854 el desarrollo del Algebra de Boolean fue publicado por el lógico Inglés George S. Boole. El sistema de Boole redujo argumentos lógicos a permutaciones de tres operadores básicos algebraicos: "y", "o", y "'no". A causa del desarrollo de el Algebra de Boolean, Boole es considerado por muchos ser el padre de teoría de la información.

Máquina lógica de Boolean
En 1869 la primera máquina de la lógica a usar el Algebra de Boolean para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano Lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.

Calculadora guiada por teclas
En 1885 la primera calculadora guiada por teclas exitosas, se inventó por Dorr Eugene Felt. Para preservar la expansión del modelo del aparato, llamado el "Comptómetro", Felt compró cajas de macarrones para albergar los aparatos. Dentro de los próximos dos años Felt vendió ocho de ellos al New York Weather Bureau y el U.S. Tresury. Se usó el aparato principalmente por contabilidad, pero muchos de ellos fueron usados por la U.S. Navy en computaciones de ingeniería, y era probablemente la máquina de contabilidad más popular en el mundo en esa época.

Sistema de tarjetas agujeradas
En 1886 la primera máquina tabuladora en usar una tarjeta agujerada de entrada del datos fue inventado por Dr. Herman Hollerith. Fue desarrollada por Hollerith para usarla en clasificar en 1890 el censo en U.S., en que se clasificó una población de 62,979,766. Su ponche dejó que un operador apuntara un indicador en una matriz de agujeros, después de lo cual se picaría en una tarjeta pálida un agujero al inverso de la máquina. Después del censo Hollerith fundó la Compañía de las Máquinas de Tabulación, que, fusionando adquiere otras compañías, llegó a ser qué es hoy Máquinas del Negocio Internacionales (IBM).

Máquina de multiplicar
En 1893 la primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario," como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato y varios miles de ellos se vendieron en los cuarenta años que siguió.

Tubo al vacío
En 1906 el primer tubo al vacío fue inventado por un inventor americano, Lee De Forest. "El Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de computadoras, a comienzos de 1930.

Flip-flop
En 1919 el primero circuito multivibrador bistable (o flip-flop) fue desarrollado por inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop dejó que un circuito tuviera uno de dos estados estables, que estaban intercambiables. Formó la base por el almacenamiento del bit binario estructura de computadoras de hoy.

Computadora analógica (para ecuaciones diferenciales)
En 1931 la primera computadora capaz de resolver ecuaciones diferenciales analógicas fue desarrollada por el Dr. Vannevar Bush y su grupo de investigación en MIT. "El Analizador Diferencial", como se llamaba, usaba engranajes diferenciales que fueron hechos rodar por motores eléctricos. Se interpretaron como cantidades los grados de rotación de los engranajes. Computaciones fueron limitadas por la precisión de medida de los ángulos.

Programa mecánico
En 1933 el primer programa mecánico fue diseñado por Wallace J. Eckert. El programa controló las funciones de dos de las máquinas en unísono y operadas por un cable. Los trabajos de Eckert sembraron la fundación para las investigaciones informático-científica de la Universidad de Colombia.

Máquina lógica
En 1936 el primer modelo general de máquinas de la lógica fue desarrollado por Alan M. Turing. El papel, tituló "En Números calculables," se publicó en 1937 en la Sociedad de Procedimientos Matemáticos de Londres y describió las limitaciones de una computadora hipotética. Números calculables eran esos números que eran números reales, capaz de ser calculados por medios del lo finito. Turing ofreció prueba que mostró que al igual cuando usa un proceso finito y definido por resolver un problema, problemas seguros todavía no se pueden resolver. La noción de las limitaciones de tal problema tiene un impacto profundo en el desarrollo futuro de ciencia de la computadora.

1937 - 1949

Durante la segunda guerra mundial, estudios en computadoras fueron de interés nacional. Un ejemplo de ello es el "Coloso", la contra inglés a la máquina Nazi de códigos, el "Enigma". Después de la guerra, el desarrollo empezó su nido, con tecnología eléctrica permitiendo un avance rápido en computadoras.

En esta etapa se inventaron las siguientes:

Las funciones de cambio

En 1937 Claude F. Shannon dibujó el primer paralelo entre la Lógica de Boolean y cambió circuitos en la tesis del patrón en MIT. Shannon siguió desarrollando sus teorías acerca de la eficacia de la información comunicativa. En 1948 formalizó estas ideas en su "teoría de la información," que cuenta pesadamente con la Lógica de Boolean.

Electrónica digital
En 1939 la primera computadora electrónica digital se desarrolló en la Universidad del Estado de Iowa por Dr. John V. Atanasoff y Clifford Baya. El prototipo, llamó el Atanasoff Berry Computer (ABC), fue la primera máquina en hacer uso de tubos al vacío como los circuitos de la lógica.

Computadora programable
En 1941 la primera controladora para computadora para propósito general usada se construyó por Konrad Zuse y Helmut Schreyer. El "Z-3," como se llamó, usaba retardos electromagnéticos y era programada usando películas agujereadas. Su sucesor, el "Z-4," fue contrabandeado fuera de Berlín cuando Zuse escapo de los Nazis en Marzo de 1945.

Electrónica ingles
En el diciembre de 1943 se desarrolló la primera calculadora inglesa electrónica para criptoanálisis. "El Coloso," como se llamaba, se desarrolló como una contraparte al Enigma, La máquina codificación de Alemania. Entre sus diseñadores estaban Alan M. Turing, diseñador de la Máquina Turing, quien había escapado de los Nazis unos años antes. El Coloso tenía cinco procesadores, cada uno podría operar a 5,000 caracteres por segundo. Por usar registros especiales y un reloj interior, los procesadores podrían operar en paralelo (simultáneamente) que esta le daba al Coloso una rapidez promedio de 25,000 caracteres por segundo. Esta rapidez alta era esencial en el esfuerzo del desciframiento de códigos durante la guerra. El plan del Coloso era quedar como información secreta hasta muchos años después de la guerra.

Mark I ASCC
En 1944, el primer programa controlador americano para computadora fue desarrollado por Howard Hathaway Aiken. La "Calculadora Automática Controlada por Secuencia (ASCC) Mark I," como se llamaba, fue un parche de los planes de Charles Babbage por el artefacto analítico, de cien años antes. Cintas de papel agujereados llevaban las instrucciones. El Mark que midió cincuenta pies de largo y ocho pies de alto, con casi quinientas millas de instalación eléctrica, y se usó a la Universidad de Harvard por 15 años.

El primer error de computadora (bug)
El 9 de septiembre de 1945, a las 3: 45 p.m., el primer caso real de un error que causa un malfuncionamiento en la computadora fue documentado por los diseñadores del Mark II. El Mark II, sucesor al ASCC Mark que se construyó en 1944, experimentó un falló. Cuando los investigadores abrieron caja, hallaron una polilla. Se piensa ser el origen del uso del término "bug" que significa insecto o polilla en inglés.

El ENIAC
En 1946 la primera computadora electrónica digital a grande escala llegó a ser operacional. ENIAC (Integrado Electrónico Numérico y Calculadora) usó un sistema de interruptores montados externamente y enchufes para programarlo. El instrumento fue construido por J. Presper Eckert Hijo y John Mauchly. La patente por el ENIAC no fue aceptada, de cualquier modo que, cuando se juzgó como se derivó de una máquina del prototipo diseñado por el Dr. John Vincent Atanasoff, quien también ayudó a crear la computadora Atanasoff-Berry. Se publicó trabajo este año que detalla el concepto de un programa guardado. Se completa sucesor a ENIAC, el EDVAC, en 1952.

El transistor
En 1947 se inventó la primera resistencia de traslado, (transistor) en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley. Los diseñadores recibieron el Premio Nóbel en 1956 por su trabajo. El transistor es un componente pequeño que deja la regulación del flujo eléctrico presente. El uso de transistores como interruptores habilitaron computadoras llegar a ser mucho más pequeño y subsiguientemente llevó al desarrollo de la tecnología de la "microelectrónica".

La computadora "Guarda Programas"
En 1948 la primera computadora de guardado de programa se desarrolló en la Universidad Manchester por F.C. y Williams T. Kilburn. El "Manchester Marca I", como se llamaba, se construyó para probar un tubo CRT de la memoria, inventada por Williams. Como tal, era una computadora escala. Una computadora a gran escala de guardado de programas se desarrolló un año más tarde (EDSAC) por un equipo encabezado por Maurice V. Wilkes.

Memoria
En 1949 la primera memoria fue desarrollada por Jay Forrester. Empezando en 1953, la memoria, que constó de una reja de anillos magnéticos en alambre interconectados, reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.

1950 - 1962

Desde 1950 hasta 1962, un número de desarrollos avanzaron en tecnología de computadoras. Una vez que la tecnología electrónica ha sido aplicada a máquinas de computo, computadoras pudieron avanzar lejos de sus habilidades previas. Guiadas por el modelo de Turín para máquinas lógicas, estudiosos de las computadoras integraron lógica en sus máquinas. Programadores fueron capaces de explotar estas utilidades mejor una vez que los primeros lenguajes de programación, COBOL, fueron inventados.

En esta etapa se inventaron las siguientes:

Computadora Interactiva
En 1950 la primera computadora interactiva en tiempo real, fue completada por un plan de diseño en MIT. La "Computadora del Torbellino," como se llamaba, fue adoptada para proyectos en el desarrollo de un simulador de vuelo por la U.S. Navy. El Torbellino usó un tubo de rayo de cátodo y una pistola de la luz para proveer interactividad. El Torbellino se conectaba a una serie de radares y podría identificar un avión poco amistoso e interceptores a su posición proyectada. Esta sería el prototipo para una red de computadoras y sitios de radar (SAGE) como un elemento importante de la defensa aérea de EUA por un cuarto-siglo después de 1958.

UNIVAC
En 1951 se entregó la primera computadora comercialmente disponible al Escritorio del Censo por el Eckert Mauchly Corporación de la Computadora. El UNIVAC (Computadora Universal Automática) fue la primera computadora que no era un solo disponible para laboratorios. El UNIVAC llegó a ser una casera en 1952 cuando se televisó en un reportaje de noticias para proyectar el ganador del Eisenhower-Stevenson raza presidencial con exactitud estupenda. Ese mismo año Maurice V. Wilkes (diseñador de EDSAC) creó la fundación de los conceptos de microprogramación, que sería el modelo de los diseñadores y constructores de la computadora.

Circuito Integrado
En 1958 el primer circuito integrado se construyó por Jack S. Kilby. Se hizo el circuito de varios elementos individuales de silicona congregados juntos. El concepto proveyó la fundación para el circuito integrado, que dejó grandes adelantos en la tecnología microelectrónica. También ese año, vino el desarrollo de un idioma de programación, llamado LISP (Procesador de Lista), para permitir la investigación en inteligencia artificial (IA).

COBOL
En 1960 el primer idioma de programación de alto nivel transportable entre modelos diferentes de computadoras se desarrolló por un grupo en el departamento de defensa patrocinada en la Universidad de Pennsylvania. El idioma era COBOL (Idioma Común Orientada al Negocio), y uno de los miembros del equipo de desarrollo era Grace Hopper (quien también escribió el primer programa recopilador práctico). Se introdujo este año el primer láser también, por Theodore H. Maiman en los Laboratorios Investigativos de Hughes. El láser (amplificación ligera por estimuló emisión de radiación) podría emitir luz coherente de un cristal de rubí sintético.

Cuaderno Gráfico
En 1962 los primeros programas gráficos que dejan que el usuario dibujara interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT. El programa, llamado "Sketchpad," usó una pistola de luz para la entrada de gráficos en una pantalla CRT.

1963 - 1971
Una vez que la primera mini computadora fue construida en 1963, y luego la primera triunfante en los negocios la supercomputadora en 1964, la revolución de la computadora comenzó. Con la creación de cables de fibra óptica, semiconductores, láseres y bases de datos relacionados, la barrera fue derribada para los programadores. No sería hasta doce años después cuando la computadora, llega a los hogares.

En esta etapa se inventaron las siguientes:

La minicomputadora
En 1963 el primer miniordenador comercialmente exitoso fue distribuido por Corporación del Equipo digital (DEC). El DEC PDP-8 fue el sucesor al PDP-1, la primera computadora demostró por el DEC viejo en 1959. El advenimiento de la minicomputación comercial fue el de tener una influencia significante en el desarrollo de secciones en la ciencia de la informática universitaria. La distribución de la Computadora 12-bit PDP-8 abrió las compuertas del comercio de miniordenador en otras computadoras.

Sistema IBM 360
En 1964 la familia de computadoras Sistema/ 360 fue lanzada por IBM. El Sistema/ 260 reemplazó transistores con circuito integrado, o lógica sólida, tecnología. Mas de treinta mil unidades se vendieron, y una era nueva en tecnología de computadoras había empezado. Un mes después Sistema/ se introdujo 360, se corrió el primer programa BASIC a la Universidad de Dartmouth por su inventores, Tomás Kurtz y John Kemeny. BASIC sería el idioma introductorio por una generación entera de usuarios de la computadora.

Supercomputadora
En 1964 la primera supercomputadora a estar comercialmente disponible se envió por la Corporación de Datos de Mando. El CDC 6600 tenía varios datos devana bancos y estaba a quedar en la computadora más poderosa por muchos años después de su desarrollo.

El programa de ajedrez
En 1967 los primeros programas exitosos de ajedreces fueron desarrollados por Richard Greenblatt en MIT. El programa, llamado MacHack, fue presentado en un torneo de ajedrez a la categoría del novicio y ganó. El desarrollo futuro de tecnología de la inteligencia artificial (IA) era contar pesadamente en tales softwares de juego.

Minicomputadora de 16-bit
En 1969, la primera minicomputadora de 16-bit fue distribuida por Data General Corporation. La computadora, llamada la Nova, fue un mejoramiento en velocidad y poder sobre las minicomputadoras de 12-bit, PDP-8.

Fibra óptica
En 1970 el primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc. El cables de fibra óptica de vidrio dejaron que más datos transmitiera por ellos más rápido que por alambre o cable convencional. El mismo año, circuitos ópticos fueron mejoraron más allá, por el desarrollo del primer láser semiconductor.

Base de datos relacional
En 1970 el primer modelo de banco de datos relacional se publicó por E.F. Codd. Un banco de datos relacional es un programa que organiza datos, graba y deja que atributos similares de cada registro comparen. Un ejemplo es una colección de registros personales, donde los últimos nombres o se listan sueldos de cada persona. La publicación de Codd, tituló "Un modelo relacional de Datos para banco de datos grandes compartidos", abrió un nuevo campo entero en desarrollo de banco de datos.

Chip microprocesador
En 1971 el primer chip microprocesador fue introducido por Intel Corporación. El chip 4004 era un procesador 4-bit con 2250 transistores, capaz de casi el mismo poder como el 1946 ENIAC (que llenó un cuarto grande y tenía 18,000 tubos al vacío). El chip 4004 medía 1/ 6-pulgada de largo por 1/ 8-pulgada de ancho.

Computadora personal
En 1971 se construyó y distribuyó la primera computadora personal por John Blankenbaker. La computadora, llamada el Kenbak-1, tenía una capacidad de memoria de 256 bytes, desplegaba datos como un juego de LED pestañeantes y era tedioso programarlo. Aunque sólo 40 computadoras Kenbak-1 se vendieron (a un precio de $750), introdujo la revolución de la computadora personal.

1972 - 1989

Una vez que la PC fue llegando a los hogares, la revolución de PC comienza. La competencia de los mercados entre manufactureros como IBM y Apple Computer avanzaron rápidamente en el campo. Por primera vez la habilidad de cálculos de alta calidad, estaba en la casa de cientos miles de personas, en vez que solo algunos privilegiados. Las computadoras finalmente se convirtieron en herramienta de la gente común.

En esta etapa se inventaron las siguientes:

Altair
En el enero de 1975 Micro Instrumentation Telemetry Systems (MITS) introdujeron el Altair. Una minicomputadora mas personal, el Altair era barato ($350) del sistema que no tenía teclado, amonestador, o aparato del almacenamiento de la memoria, pero llevó el microprocesador 8-bit Intel 8080. Cuando se actualizó la computadora con 4 kilobyte de expansión de la memoria, Paul Allen y Bill Gates (que más tarde fundaron Microsoft Corporation) desarrollaron una versión de BASIC como un idioma de la programación por la computadora.

Computadoras personales
En 1977, la primera computadora personal ensamblada fue distribuida por Commodore, Apple Computer, y Tandy. Dentro de unos años el PC (computadora personal) había llegado a ser un pedazo de la vida personal de cada uno de sus usuarios, y aparecería pronto en bibliotecas públicas, escuelas, y lugares de negocio. Fue también durante este año que la primera área comercialmente disponible Local Area Network (LAN) fue desarrollado por Datapoint Corporation, llamada ARCnet.

Procesador RISC
En 1980 el primer prototipo de Computadora de Instrucción Reducida (RISC) fue desarrollado por un grupo de investigación en IBM. El miniordenador 801 usó un juego simple de instrucciones en idioma de la máquina, que se puede procesar un programa muy rápido (usualmente dentro de un ciclo de la máquina). Varios vendedores mayores ahora ofrecen computadoras RISC. Es pensado por muchos que el RISC es el formato futuro de procesadores, debido a su rapidez y eficacia.

Microprocesador de 32-bit
En 1980 se desarrolló el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell. El chip, llamado el Bellmac-32, proporcionó un mejor poder computacional sobre los procesadores anteriores de 16-bit.

IBM PC-XT
En 1981 la revolución de la computadora personal ganó impulso cuando IBM introdujo su primera computadora personal. La fuerza de la reputación de IBM era un factor importante en legitimar PC para uso general. La primera IBM PC, era un sistema basado de un floppy el cual usó el microprocesador 8088 de Intel. Las unidades originales tenían pantallas de sólo texto, gráficos verdaderos eran una alternativa que llegó más tarde. Se limitó memoria también, típicamente sólo 128K, o 256K de RAM. La máquina usó un sistema operativo conoce como DOS, un sistema de la línea de comandos similar a los más antiguo sistemas CP/M. IBM más tarde lanzó el IBM PC/ XT. Éste era una máquina extendida que añadió una unidad de discos duros y gráficos CGA. Mientras la máquina llegó a ser popular, varias otras compañías empezaron a lanzar imitaciones del IBM PC. Estos temprano "clones" se distinguieron por incompatibilidades debido a su incapacidad a reproducir debidamente el IBM BIOS. Se comercializaron éstos normalmente como" 90% compatible." Se superaría Este problema pronto y la competición serviría para empujar la tecnología y precios de la unidad abajo.

Procesamiento paralelo
En 1981 la primera computadora del proceso comercial paralela fue distribuida por BBN Computers Advanced, Inc. La computadora, llamada la "Mariposa", era capaz de asignarles a partes de un programa hasta 256 diferentes procesadores, en consecuencia de esto la velocidad del proceso y eficacia incrementan.

Macintosh
En 1984 el primer Macintosh personal computer fue distribuido por Apple Computer, Inc. El Macintosh, el cual tenía una capacidad de la memoria de 128KB, integró un monitor, y un ratón, fue la primera computadora en legitimar la interfaz gráfica. La interfase de Mac era similar a un sistema explorado por Xerox PARC. En lugar de usar una interfase de línea de comando que era la norma en otras máquinas, el MacOS presentó a los usuarios con "iconos" gráficos, sobre las ventanas gráficas, y menús deslizantes. El Macintosh era un riesgo significante por Apple en que el nuevo sistema era incompatible con cualquiera otro tipo de software, o su propia Apple ][, o el IBM PC línea. Se plagó la máquina más allá por memoria limitada y la falta de una unidad de discos duros.. La máquina pronto llegó a ser una norma por artistas gráficos y publicadores. Ésta dejó que la máquina creciera en una plataforma más establecida.

IBM PC-AT
En 1984 IBM distribuido el IBM PC-AT, la primera computadora usaba el chip microprocesador Intel 80286. La serie Intel 80x86 adelantó el poder del procesador y flexibilidad de las computadoras IBM. IBM introdujo varios cambia en esta línea nueva. Se introdujo ése un sistema de los gráficos nuevo, EGA, dejó que 16 colores de gráficos a resoluciones más altas (CGA, el sistema más antiguo que sólo tenía cuatro colores). La máquina también incorporó un bus de datos de 16-bit, y mejorado del el 8-bit bus de XT. Esto permitió la creación de tarjetas de expansión más sofisticadas. Otro mejora incluyeron un teclado extendido, un mejor suministro de energía y una caja del sistema más grande.

1990 - Presente

Por este tiempo, las computadoras han sido adaptadas a casi cada aspecto de la vida moderna. Desde controlar motores de automóviles hasta comprar en los supermercados. Cada vez máquinas más rápidas y nuevas, son creadas. Esto hace que las casas de programas tomen ventaja de estas nuevas máquinas. Aunque estas tecnologías son las últimas son las máquinas viejas del futuro.

En esta etapa se inventaron las siguientes:

Computadoras ópticas
En 1990 se construyó el primer procesador óptico en At&T Laboratorios de Bell. El procesador emplea pequeños, láseres semi-conductores para llevar información y guardar circuitos ópticos y procesan la información. Usar luz, en lugar de electricidad, para llevar datos podía teóricamente hacer de las computadoras miles de veces más rápido.

Interruptor de un solo átomo
En 1991 la primera demostración de un interruptor cuenta con se dio el movimiento de un átomo se dio a conocer en IBM Almaden Research Center. Un átomo Xenón se colocó en una superficie cristalina, el cual puede ser observado por microscopio. Reemplazar interruptores electrónicos con interruptores atómicos podía hacer tales interruptores un milésimo de su tamaño del presente.

Virus Miguel Ángel
Temprano en 1992 un virus fue descubierto, el cual estaba programado para activarse el 6 de marzo, el cumpleaños de Miguel Ángel. Se esperó que el virus extendido dañara o destruyera archivos de usuario en la unidad de disco duro. Recibió cobertura de las noticias nunca visto, sobre la advertencia a las personas de los pasos necesitaron proteger su sistema. Aunque se diseñó el virus para ser destructivo, realmente tenía un efecto positivo. Las noticias alertaron a personas sobre los peligros de los virus e informado a ellos de precauciones para proteger sus sistemas.

Nuevos microprocesadores
En 1992 varios microprocesadores nuevos llegaron a ser disponibles los cuales mejorarían dramáticamente el desempeño de computadoras de escritorio. El Intel 80486 llegó a ser la norma nueva para las PC sistemas y Motorola 68040 dio energía similar a otra estación. Procesadores más nuevos como el Pentium, i860, y el chip PowerPC RISC les promete aun a más grandes ganancias en energía del proceso y rapidez.

Nuevos sistemas operativos
1992 fue un año del estampido para los sistemas operativos nuevos. En abril Microsoft S.A. lanzó Windows v3.1. Otro programas nuevos incluyen IBM OS/ 2 v2.0, y Apple System 7.1. Todas las versiones nuevas fueron una versión revisada de sistemas más viejos. Agregaron cosas como tipos de letra y mejoramiento de vídeo.

Miniaturización
Avances en tecnología de la miniaturización han habilitado a fabricantes de computadoras continuar a suministrar máquinas de la calidad más alta en conjuntos más pequeños. El poder del proceso el cual, hace veinte años, habría ocupado la computadora del equipo central un cuarto entero, hoy día se puede llevar alrededor de en una computadora de libreta que pesa sólo seis o siete libras. Palmtop, pequeña bastante como para encajar en un bolsillo, tiene más rapidez y poder que las supercomputadoras de los 1950.

Redes
Redes de Área Local, o LANs, están entre las técnicas más rápidas desarrolladas para comunicación entre las oficinas hoy día. Recientemente, avances tecnología LAN han incluido comunicando computadoras con luces infrarrojas y ondas de radio. Estos sistemas inalámbricos permiten a los LAN a ser usado sin instalar cable y permitir a los LAN a ser personalizado fácilmente e ingresar mas estaciones sin cables.

Guardado de información
Entre los muchos adelantos recientes para tecnología de la computadora son esos sistemas almacenamiento de la información de las máquinas modernas. Tipos de disquetes los cuales alguna vez mantuvieron 128 kilobytes de información, ahora pueden guardar 1.2 megabytes de información. Adelantos tal como "flóptical" que usa sincronización del láser de los discos del floppy, puede mejorar, en otros tiempos, capacidades inimaginables. CD-ROM, capaces de guardar 500 megabytes de información, llega a ser miniaturizados mientras discos más pequeños pueden retener más información.

domingo, 30 de septiembre de 2007

Audio radial

http://blog-loncan.blogspot.com/rss.xml

Diapositivas

VIDEO COMPUTACIÓN

Informática: Concepto e Historia

Informática

La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales.
Informática es un vocablo proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.

La informática se utiliza en diversidad de tareas, por ejemplo: elaboración de documentos, control y sistematización de procesos, robots industriales, telecomunicaciones y vigilancia, así como el desarrollo de juegos y multimedios.

En la informática convergen los fundamentos de las ciencias de la computación, la programación y las metodologías para el desarrollo de software, así como determinados temas de electrónica. Se entiende por informática a la unión sinérgica del cómputo y las comunicaciones.


Historia de la informática

La computadora o computador no es invento de alguien en especial, sino el resultado de ideas y realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.

Los primeros troligios de cálculo, se remontan a 3000 adC. Los babilonios que habitaron en la antigua Mesopotamia empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" agrupadas en carriles de caña.

Posteriormente, en el año 1800 adC, un matemático babilónico inventó los algoritmos que permitieron resolver problemas de cálculo numérico. Algoritmo es un conjunto ordenado de operaciones propias de un cálculo.

El Ábaco

Los chinos desarrollaron el ábaco, con éste realizaban cálculos rápidos y complejos. Éste instrumento tenía un marco de madera cables horizontales con bolas agujereadas que corrían de izquierda a derecha.

En el siglo XVII, John Napier, matemático escocés famoso por su invención de los logaritmos (unas funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restas) inventó un dispositivo de palillos con números impresos que, merced a un ingenioso y complicado mecanismo, le permitía realizar operaciones de multiplicación y división.
Una Pascalina firmada por Pascal del año 1652.

En 1642 el físico y matemático francés Blaise Pascal inventó el primer calculador mecánico, la pascalina. A los 18 años de edad, deseando reducir el trabajo de cálculo de su padre, funcionario de impuestos, fabricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Estaban marcadas con números del 0 al 9 y había dos para los decimales, con lo que podía manejar números entre 000000,01 y 999999,99. Giraban mediante una manivela, con lo que para sumar o restar había que darle el número de vueltas correspondiente en un sentido o en otro. Treinta años después el filósofo y matemático alemán Leibnitz inventó una máquina de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario. A los 26 años aprendió matemáticas de manera autodidáctica y procedió a inventar el cálculo infinitesimal, honor que comparte con Newton.

En 1801 el francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras.

Charles Babbage (1793-1871) creó un motor analítico que permitía sumar, sustraer, multiplicar y dividir a una velocidad de 60 sumas por minuto. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.

En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.

Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía: la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 Hollerith fusionó su compañía con otras dos para formar la International Business Machines hoy mundialmente conocida como IBM.

A comienzos de los años 30, John Vincent Atanasoff, un estadounidense doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas.

Con 650 dólares donados por el Consejo de Investigación del Estado de Iowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer

Prácticamente al mismo tiempo que Atanasoff, el ingeniero John Mauchly, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la Asociación Americana para el Avance de la Ciencia para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobré la paternidad del computador digital.

En 1940 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a John Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa.

Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de un computador electrónico digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó Electronic Numerical integrator and Computer (ENIAC) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano).

El ENIAC tenía 19.000 tubos de vacío, 1500 relés, 7500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y la salida de datos se realizaba mediante tarjetas perforadas. Podía realizar unas 5000 sumas por segundo. Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases. Consumía 200 kilovatios de potencia eléctrica y necesitaba un equipo de aire acondicionado para disipar el gran calor que producía. En promedio, cada tres horas de uso fallaba una de las válvulas.

Lo que caracterizaba al ENIAC como a un computador moderno no era simplemente su velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.

Entre 1939 y 1944, Howard Aiken de la Universidad de Harvard, en colaboración con IBM, desarrolló el Mark 1, conocido como Calculadora Automática de Secuencia Controlada. Fue un computador electromecánico de 16 metros de largo y unos 2 de alto. Tenía 700.000 elementos móviles y varios centenares de kilómetros de cables. Podía realizar las cuatro operaciones básicas y trabajar con información almacenada en forma de tablas. Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1 segundo.

El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito de asemejarse al tipo de máquina ideado por Babbage, aunque trabajaban en código decimal y no en binario.

El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente ensombrecido por el ENIAC con sus circuitos electrónicos.

Alan Turing, matemático inglés, descifra los códigos secretos Enigma usados por la Alemania nazi para sus comunicaciones. Turing fue un pionero en el desarrollo de la lógica de los computadores modernos, y uno de los primeros en tratar el tema de la inteligencia artificial con máquinas.

Norbert Wiener, trabajó con la defensa antiaérea estadounidense y estudió la base matemática de la comunicación de la información y del control de un sistema para derribar aviones. En 1948 publicó sus resultados en un libro que tituló CYBERNETICS (Cibernética), palabra que provenía del griego "piloto", y que se usó ampliamente para indicar automatización de procesos.

El computador Z3, fue la primera máquina programable y completamente automática, características usadas para definir a un computador. Estaba construido con 2200 relés, tenía una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran realizados con aritmética en coma flotante puramente binaria. La máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín). El Z3 original fue destruido en 1944 durante un bombardeo aliado de Berlín. Una réplica completamente funcional fue construida durante los años 60 por la compañía del creador Zuse KG y está en exposición permanente en el Deutsches Museum. En 1998 se demostró que el Z3 es Turing completo.

1944
Se construyó el primer ordenador al cual se le llamo Eniac. Era un ordenador electronico con el cual el proceso de datos, almacenamiento y control de operaciones se realizaban con dispositivos electronicos,se utilizaban tubos de vacio, que hacen posible el salto del calculo electrico al electronico.

1946
John Von Neumann propuso una versión modificada del ENIAC; el EDVAC, que se construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al ENIAC: En primer lugar empleaba aritmética binaria, lo que simplificaba enormemente los circuitos electrónicos de cálculo. En segundo lugar, permitía trabajar con un programa almacenado. El ENIAC se programaba enchufando centenares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un problema distinto, era necesario cambiar todas las conexiones, proceso que llevaba muchas horas.
Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen bajo un control central. Además propuso que los códigos de operación que habían de controlar las operaciones se almacenasen de modo similar a los datos en forma binaria. De este modo el EDVAC no necesitaba una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa como los datos. Además, el programa podía modificarse a sí mismo, ya que las instrucciones almacenadas, como datos, podían ser manipuladas aritméticamente.

1951
Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I. Posteriormente aparecería el UNIVAC-II con memoria de núcleos magnéticos, lo que le haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM.

1952
Shannon desarrolla el primer raton electrico capaz de salir de un laberinto, primera red neural.

1953
IBM fabricó su primer computadora gran escala, el IBM 650.

1956
Darthmouth da una conferencia en donde nace la inteligencia artificial.

1958
ComienzaR la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío. Un transistor y una válvula cumplen funciones equivalentes, con lo que cada válvula puede ser reemplazada por un transistor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores vienen a ser de 10 voltios, con lo que los demás elementos de circuito también pueden ser de menor tamaño, al tener que disipar y soportar tensiones mucho menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío.

1962
El mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados Unidos, en lo que se denominó “la Crisis de los misiles de Cuba”. A causa de esto, una de las preocupaciones de las ejército de los Estados Unidos era conseguir una manera de que las comunicaciones fuesen más seguras en caso de un eventual ataque militar con armas nucleares. Como solución entró en consideración solamente el proceso de datos en forma electrónica. Los mismos datos se deberían disponer en diferentes computadores alejados unos de otros. Todos los computadores entrelazados deberían poder enviarse en un lapso corto de tiempo el estado actual de los datos nuevos o modificados, y cada uno debería poder comunicarse de varias maneras con cada otro. Dicha red también debería funcionar si un computador individual o cierta línea fuera destruida por un ataque del enemigo.

Joseph Carl Robnett Licklider escribió un ensayo sobre el concepto de Red Intergaláctica, donde todo el mundo estaba interconectado para acceder a programas y datos desde cualquier lugar del planeta. En Octubre de ese año, Lickider es el primer director de ARPA (Advanced Research Projects Agency), o Agencia de Proyectos de Investigación Avanzada, una organización científica creada en 1958 como contestación a la puesta en orbita por parte de los rusos del primer satélite conocido como Sputnik.

1963
Caracteres ASCII imprimibles, del 32 al 126.
Un comité Industria-Gobierno desarrolla el código de caracteres ASCII, (se pronuncia asqui), el primer estándar universal para intercambio de información (American Standard Code for Information Interchange), lo cual permitió que máquinas de todo tipo y marca pudiesen intercambiar datos.

1964
La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. Esto representa un gran avance en cuanto a velocidad y, en especial, en cuanto a reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen.

Investigadores del Instituto Tecnológico de Massachusetts (MIT) y del Laboratorio Nacional de Física de la Gran Bretaña, presentaron simultáneamente soluciones a lo propuesto por las Fuerzas Armadas norteamericanas. Y ese mismo año la Fuerza Aérea le asignó un contrato a la Corporación RAND para la llamada "red descentralizada". Ese proyecto fracasó después de muchos intentos y nunca fue realizado, pero la idea de una red que no dependiese de un solo punto central y con la transferencia de datos por paquete se quedó anclada en la cabeza de muchas personas.

Paul Baran, quien por ese entonces trabajaba con Rand Corporation, fue uno de los primeros en publicar en Data Communications Networks sus conclusiones en forma casi simultánea con la publicación de la tesis de Kleinrock sobre teoría de líneas de espera. Diseñó una red de comunicaciones que utilizaba computadores y no tenía núcleo ni gobierno central. Además, asumía que todas las uniones que conectaban las redes eran altamente desconfiables.

El sistema de Baran trabajaba con un esquema que partía los mensajes en pequeños pedazos y los metía en sobres electrónicos, llamados "paquetes", cada uno con la dirección del remitente y del destinatario. Los paquetes se lanzaban al seno de una red de computadores interconectados, donde rebotaban de uno a otro hasta llegar a su punto de destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno de los paquetes se perdía o se alteraba (y se suponía que algunos se habrían de dislocar), no era problema, pues se volvían a enviar.

1966
La organización científica ARPA se decidió a conectar sus propios computadores a la red propuesta por Baran, tomando nuevamente la idea de la red descentralizada. A finales de 1969 ya estaban conectados a la red ARPA los primeros cuatro computadores, y tres años más tarde ya eran 40. En aquellos tiempos era, sin embargo, la red propia de ARPA. En los años siguientes la red fue llamada ARPANET (red ARPA), y su uso era netamente militar.
Ken Thompson y Dennis Ritchie
Ken Thompson y Dennis Ritchie

Un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desarrolló un sistema operativo experimental llamado Multics (Información multiplexada y Sistema de Computación) para usar con un computador General Electric. Los laboratorios Bell abandonaron el proyecto, pero en 1969, Ken Thompson, uno de los investigadores del Multics, diseñó un juego para dicho computador, que simulaba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a escribirlo, ahora para un computador DEC (Digital Equipment Corporation), aprovechando que, junto con Ritchie había creado también un sistema operativo multitarea, con sistema de archivos, intérprete de órdenes y algunas utilidades para el computador DEC. Se le llamó UNICS (Información Uniplexada y Sistema de Computación) y podía soportar dos usuarios simultáneamente. En 1970 se renombró Unix. Su licencia de uso era muy costosa, lo cual lo ponía fuera del alcance de muchas personas. Esto motivaría luego la creación del Proyecto GNU para el desarrollo de software libre.

1968
Robert Noyce y Gordon Moore fundan la corporacion intel(intel corporation).

1969
La organización ARPA junto con la compañía Rand Corporation desarrolló una red sin nodos centrales basada en conmutación de paquetes tal y como había propuesto Paul Baran. La información se dividía en paquetes y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una cierta información. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban para dar lugar a la información. Al viajar paquetes por la red, era más difícil perder datos ya que, si un paquete concreto no llegaba al destino o llegaba defectuoso, el computador que debía recibir la información sólo tenía que solicitar al computador emisor el paquete que le faltaba. El protocolo de comunicaciones se llamó NCP. Esta red también incluyó un gran nivel de redundancia (repetición) para hacerla más confiable.

ARPANET conectó los ordenadores centrales vía ordenadores de pasarela pequeños, o "routers", conocidos como Interface Message Processors (IMPs). El 1 de septiembre de 1969 el primer IMP llegó a UCLA. Un mes después el segundo fue instalado en Stanford. Después en UC Santa Barbara y después en la Universidad de Utah.

1971
Correo electrónico y FTP

Se creó el primer programa para enviar correo electrónico. Fue Ray Tomlinson, del BBN, y combinaba un programa interno de correo electrónico y un programa de transferencia de ficheros. También en este año un grupo de investigadores del MIT presentaron la propuesta del primer “Protocolo para la transmisión de archivos en Internet”. Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de ficheros (FTP).

Las instituciones académicas se interesaron por estas posibilidades de conexión. La NSF dio acceso a sus seis centros de supercomputación a otras universidades a través de la ARPANET. A partir de aquí se fueron conectando otras redes, evitando la existencia de centros, para preservar la flexibilidad y la escalabilidad.

1972
Aparecen los disquetes de 5.25 pulgadas.

1973
ARPA cambia su nombre por DARPA, inicia un programa para investigar técnicas y tecnologías para interconectar redes de tipos diferentes y se lanzan dos nuevas redes: ALOHAnet, conectando siete computadores en cuatro islas, y SATNET, una red conectada vía satélite, enlazando dos naciones: Noruega e Inglaterra.

Lawrence Roberts se propone interconectar a DARPA con otras redes, PRNET y SATNET, con diferentes interfaces, tamaños de paquetes, rotulados, convenciones y velocidades de transmisión.

1974
Vinton Cerf, conocido como el padre de Internet, junto con Bob Kahn, publican “Protocolo para Intercomunicación de Redes por paquetes”, donde especifican en detalle el diseño de un nuevo protocolo, el Protocolo de control de transmisión (TCP, Transmission Control Protocol), que se convirtió en el estándar aceptado. La implementación de TCP permitió a las diversas redes conectarse en una verdadera red de redes alrededor del mundo.

Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN).

1975
En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer computador personal reconocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes de memoria RAM. El código de máquina se introducía por medio de interruptores montados en el frente del equipo, y unos diodos luminosos servían para leer la salida de datos en forma binaria. Costaba 400 dólares, y el monitor y el teclado había que comprarlos por separado. Se funda Microsoft al hacer un interpretador BASIC para esta máquina.

1976
Se funda Apple. Steve Wozniak desarrolla el Apple I para uso personal, a Steve Jobs se le ocurre comercializarlo.

1977
El Apple II

Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje, y al año siguiente se ofrece la primera versión del procesador de texto WordStar.

1979
Hoja de cálculo

Dan Bricklin crea la primera hoja de cálculo, más tarde denominada VisiCalc, la cual dio origen a Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro, y Excel.

ARPA crea la primera comisión de control de la configuración de Internet y en 1981 se termina de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol) y ARPANET lo adopta como estándar en 1982, sustituyendo a NCP. Son las primeras referencias a Internet, como “una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP”. Internet es la abreviatura de Interconnected Networks, es decir, Redes interconectadas, o red de redes.

1980
En octubre, la IBM comenzó a buscar un sistema operativo para su nueva computadora personal que iba a lanzar al mercado, cosa de la cual se enteraron Bill Gates y su amigo Paul Allen, autores del lenguaje de programación Microsoft BASIC, basado en el ya existente lenguaje BASIC. Ellos compraron los derechos de QDOS (Quick and Dirty Operating System), un sistema operativo desarrollado por Tim Paterson y basado en CP/M, un sistema escrito por Gary Kildall, y lo negociaron con IBM como Microsoft DOS.

1981
IBM PC 5150

El 12 de Agosto, IBM presenta el primer computador personal, el IBM PC reconocido popularmente como tal, con sistema operativo PC DOS y procesador Intel 8088. IBM y Microsoft son coautores del sistema operativo PC-DOS/MS-DOS, ya que IBM ayudó a Microsoft a pulir los muchos errores que el MS DOS tenía originalmente.

Sony crea disquetes de 3.5 pulgadas.

1983
Proyecto GNU

IBM presenta un PC con un procesador 8088 de 4,77 Mhz de velocidad y un disco duro de 10 MB, Microsoft ofrece la versión 1.0 del procesador de palabras Word para DOS y ARPANET se separa de la red militar que la originó, de modo que ya sin fines militares se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejando abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época poblaban la red.

Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de Massachusetts (MIT), decidió dedicarse al proyecto de software libre que denominó GNU.

1984
IBM presenta un PC con procesador Intel 286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía 512 KB de memoria RAM, un disco duro de 20 Mb y un monitor monocromático. Precio en ese momento: 5.795 dólares.

Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada por Xerox.

Las compañías Philips y Sony crean los CD-Rom para los ordenadores.

1985
Microsoft presenta el sistema operativo Windows, demostrando que los computadores compatibles IBM podían manejar también el entorno gráfico, usual en los computadores Mac de Apple.

1986
Compaq lanza el primer computador basado en el procesador Intel 80386, adelantándose a IBM.

1990
WWW
Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. Su sistema hizo mucho más fácil compartir y encontrar datos en Internet. Berners-Lee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.

1991
Linux
Linus Torvalds, un estudiante de Ciencias de la Computación de la Universidad de Helsinki (Finlandia), al ver que no era posible extender las funciones del Minix, decidió escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido con su nombre personal es mera coincidencia).

Miles de personas que querían correr Unix en sus PCs vieron en Linux su única alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que Stallman había iniciado hacía ya casi diez años había producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux.

A mediados de los años noventa Linux se había convertido ya en el Unix más popular entre la gente que buscaba alternativas al sistema Windows de Microsoft.

1992
Es indroducida Arquitectura Alpha diseñada por DEC e bajo el nombre AXP, como reemplazo a la serie VAX que comúnmente utilizaba el sistema operativo VMS y que luego originaría el openVMS. Cuenta con un set de instrucciones RISC de 64 bits especialmente orientada a cálculo de punto flotante. No se ha hecho muy popular pero si es reconocida su tecnología en el entorno corporativo.

1993
Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation).

1995
Lanzamiento de Windows 95. Desde entonces Microsoft ha sacado al mercado varias versiones tales como Windows 98, 2000 (Server y Professional), NT Workstation, NT SMB (Small Business Server), ME, XP (Professional y Home Edition) y Vista.

1996
Se creó Internet2, más veloz que la Internet original, lo cual permite el manejo de archivos muy grandes y aplicaciones en videoconferencia, telemedicina y muchas otras cosas imprácticas por Internet 1.

2000
Es presentado el prototipo de computador cuántico construido por el equipo de investigadores de IBM que constaba de 5 átomos, se programaba mediante pulsos de radiofrecuencia y su estado podía ser leído mediante instrumentos de resonancia magnética, similares a los empleados en hospitales y laboratorios de química. En este computador, cada uno de los átomos de flúor que lo componen actúa como un qubit; un qubit es similar a un bit en un computador electrónico tradicional, pero con las diferencias que comporta su naturaleza explícitamente cuántica (superposición de estados, entrelazamiento de los estados de dos qubits...).

2005
Los usuarios de internet con conexión de banda ancha superan a los usuarios de internet con conexión vía modem en la mayoría de países desarrollados. Sin duda alguna, la computación ha venido a revolucionar el mundo a nivel global.