miércoles, 10 de octubre de 2012

tipos de redes de comunicacion

tipos de redes de comunicacion

NOMBRE:Elvis andrango 

CURSO:tersero de bachillerato "B"

  • 1. Redes y Tipos de Redes ¿QUÉ ES UNA RED ? ¿Qué tipos de redes hay?
  • 2. Existen varias definiciones acerca de que es una red, algunas de las cuales son: Conjunto de operaciones centralizadas o distribuidas, con el fin de compartir recursos "hardware y software". Sistema de transmisión de datos que permite el intercambio de información entre ordenadores. Conjunto de modos "computador" conectados entre sí.     El término genérico "red" hace referencia a un conjunto de entidades (objetos, personas, etc.) conectadas entre sí. Por lo tanto, una red permite que circulen elementos materiales o inmateriales entre estas entidades, según reglas bien definidas.
  • 3. Una red de computadoras (también llamada red de ordenadores o red informática) es un conjunto de equipos (computadoras y/o dispositivos) conectados por medio de cables, señales, ondas o cualquier otro método de transporte de datos, que comparten información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios (acceso a Internet, e-mail, Chat, juegos), etc. Para simplificar la comunicación entre programas (aplicaciones) de distintos equipos, se definió el Modelo OSI por la ISO, el cual especifica 7 distintas capas de abstracción. Con ello, cada capa desarrolla una función específica con un alcance definido.
  • 4. TIPOS DE REDES Existen varios tipos de redes,  los cuales se clasifican de acuerdo a su tamaño y distribución lógica.
  • 5.  
  • 6. Las Redes Anillo Topología de red en la que las estaciones se conectan formando un anillo. Cada estación está conectada a la siguiente y la última está conectada a la primera. Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pasando la señal a la siguiente estación. En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones. Cabe mencionar que si algún nodo de la red deja de funcionar, la comunicación en todo el anillo se pierde. En un anillo doble, dos anillos permiten que los datos se envíen en ambas direcciones. Esta configuración crea redundancia (tolerancia a fallos), lo que significa que si uno de los anillos falla, los datos pueden transmitirse por el otro.
  • 7. Las redes estrella El concepto de una red StarLAN es el mismo de una red Arcnet o la red tipo estrella de Novell con las siguientes características: Se comparten los periféricos instalados en el servidor. La conexión se hace a través de un Distribuidor Central de 12 puertos cada uno, y tiene interconexión con otros Distribuidores Centrales a fin de poder conectar hasta 3 niveles de ellos. El servidor de la red puede ser una computadora basada, o una mini 3000 ó micro XE de Hewlette-Packard. Tiene posibilidad de conexión con otras computadoras Para conectar una red tipo estrella, existen reglas en función al manejo mismo del Distribuidor Central, el cual se encarga de hacer la comunicación entre las estaciones de trabajo y el servidor seleccionado. Esta configuración presenta una buena flexibilidad a la hora de incrementar el número de equipos; además, la caída de uno de los ordenadores periféricos no repercute en el comportamiento general de la red. Sin embargo, si el fallo se produce en el ordenador central, el resultado afecta a todas las estaciones. El diagnóstico de problemas en la red es simple, debido a que todos los ordenadores están conectados a un equipo central.
  • 8. Una red en bus es una topologia de red en la que todas las estaciones están conectadas a un único canal de comunicaciones por medio de unidades interfaz y derivadores. Las estaciones utilizan este canal para comunicarse con el resto. Es la más sencilla por el momento. La topología de bus tiene todos sus nodos conectados directamente a un enlace y no tiene ninguna otra conexión entre nodos. Físicamente cada host está conectado a un cable común, por lo que se pueden comunicar directamente, aunque la ruptura del cable hace que los hosts queden desconectados. La topología de bus permite que todos los dispositivos de la red puedan ver todas las señales de todos los demás dispositivos, lo que puede ser ventajoso si desea que todos los dispositivos obtengan esta información. Sin embargo, puede representar una desventaja, ya que es común que se produzcan problemas segmentando la red en varias partes. Es la topología más común en pequeñas LAN.Los extremos del cable se terminan con una resistencia denominada terminador , que además de indicar que no existen más ordenadores en el extremo, permiten cerrar el bus. También representa una desventaja ya que si el cable se rompe, ninguno de los ordenadores tendrá acceso a la red. Es la tercera de las topologias principales. Las estaciones estan conectadas por un unico segmento de cable A diferencia del anillo, el bus es pasivo, no se produce generación de señales en cada nodo. Redes 
  •  
  • Definición

    Las redes o infraestructuras de (tele)comunicaciones proporcionan la capacidad y los elementos necesarios para mantener a distancia un intercambio de información y/o una comunicación, ya sea ésta en forma de voz, datos, vídeo o una mezcla de los anteriores.
    Los elementos necesarios comprenden disponer de acceso a la red de comunicaciones, el transporte de la información y los medios y procedimientos (conmutación, señalización, y protocolos para poner en contacto a los extremos (abonados, usuarios, terminales, …) que desean intercambiar información. Además, numerosas veces los usuarios se encuentran en extremos pertenecientes a diferentes tipos de redes de comunicaciones, o en redes de comunicaciones que aún siendo iguales son de distinta propiedad. En estos casos, hace falta contar con un procedimiento de interconexión.

    Arquitecturas de redes de comunicaciones distintas para distintos servicios

    Entre la red telefónica, que hace posible que dos abonados mantengan una conversación de voz, y la red de difusión de televisión, mediante la que una estación de televisión emite sus programas desde sus estudios hasta los receptores de los televidentes, existen diferencias fundamentales en cuanto a la naturaleza del mensaje que se envía, el sentido de la transmisión, y el número y tipo de usuarios que intervienen. Telefonear es hablar con otra persona, es por tanto una comunicación interpersonal, mientras que ver la televisión es, por ejemplo, observar qué sucede en otro lugar remoto lo cual significa que hay un proveedor de contenido; estas diferencias condicionan la complejidad de las redes de comunicaciones involucradas, así como los elementos de los cuales se componen.
    Siguiendo con el ejemplo utilizado, la diferencia fundamental entre ambos radica en que la red telefónica proporciona un camino para que se comuniquen cualesquiera dos abonados, mediante la marcación de un número que identifica unívocamente a cada terminal. Cualquier abonado puede comunicarse con cualquier otro y las redes telefónicas (fijas y móviles) extendidas por todo el mundo hacen esto posible. En la difusión de televisión, unas imágenes son transmitidas desde los estudios hasta los oportunos reemisores, que finalmente cubren una cierta zona mediante potentes antenas. Esta señal es recibida por los televidentes mediante otra antena y su receptor de televisión. La señal de televisión está siempre disponible y es voluntad del usuario acceder a la misma. En un sistema de televisión convencional (tanto analógico como digital) el usuario no tiene ninguna posibilidad de interactuar con el extremo que envía la información.

    Arquitecturas de las redes de comunicaciones. Conmutación de circuitos y conmutación de paquetes

    Las redes de comunicación se diseñan y construyen en arquitecturas que pretenden servir a sus objetivos de uso. Por ejemplo, existen necesidades de intercambio de información entre usuarios que obligan a mantener un flujo continuo de información, o al menos que la información llegue sin retardos apreciables para el usuario y sin desordenar, pues de lo contrario se altera su significado. Este es el caso de la voz o, en muchos casos, del vídeo.
    También es posible utilizar arquitecturas que se basan en un flujo discontinuo de información formado por “paquetes” separados de datos. Estas arquitecturas son típicas de sistemas donde la información es discontinua de forma natural (como por ejemplo en el uso del correo electrónico), pero también se puede utilizar en aquellos sistemas que requieren un flujo continuo de información, siempre y cuando se garantice que la red de comunicaciones entrega la información sin un retardo apreciable para los usuarios y sin desordenar los paquetes de datos en los que se ha descompuesto el flujo de información.
    Para que la información enviada por un terminal, sea recibida en el otro extremo, las redes (y las arquitecturas mediante las que se implementan) establecen un “camino” entre los extremos por el que viaja la información. Como las redes de comunicaciones no unen directamente a todos los usuarios con el resto, sino que tienen una estructura jerárquica, es necesario contar con un procedimiento de “conmutación” o “encaminamiento” que dirija la información (sea un flujo continuo o esté “paquetizada”) hacia su destinatario.
    Siguiendo con esta lógica, existen dos tipos básicos de arquitecturas de redes de comunicación: conmutación de circuitos y conmutación de paquetes. En la conmutación de circuitos, el camino (llamado “circuito”) entre los extremos del proceso de comunicación se mantiene de forma permanente mientras dura la comunicación, de forma que es posible mantener un flujo continuo de información entre dichos extremos. Este es el caso de la telefonía convencional. Su ventaja principal radica en que una vez establecido el circuito su disponibilidad es muy alta, puesto que se garantiza esta camino entre ambos extremos independientemente del flujo de información. Su principal inconveniente reside en consumir muchos recursos del sistema mientras dura la comunicación, independientemente de lo que en la realidad pudiera requerir. En la conmutación de paquetes, no existe un circuito permanente entre los extremos y, la red, simplemente, se dedica a encaminar paquete a paquete la información entre los usuarios. En la práctica esto significa que los paquetes en los que se ha dividido la información pueden seguir caminos diferentes. Su principal ventaja es que únicamente consume recursos del sistema cuando se envía (o se recibe) un paquete, quedando el sistema libre para manejar otros paquetes con otras información o de otros usuarios. Por tanto, la conmutación de paquetes permite inherentemente la compartición de recursos entre usuarios y entre informaciones de tipo y origen distinto. Este es caso de Internet. Su inconveniente reside en las dificultades en el manejo de informaciones de “tiempo real”, como la voz, es decir, que requieren que los paquetes de datos que la componen lleguen con un retardo apropiado y en el orden requerido. Evidentemente las redes de conmutación de paquetes son capaces de manejar informaciones de “tiempo real”, pero lo hacen a costa de aumentar su complejidad y sus capacidades.

    Caracterización de las redes de comunicaciones. Direccionalidad, ancho de banda y simetría. Redes analógicas y digitales

    En primer lugar las redes de comunicaciones se pueden distinguir en función de si el camino por el que circula la información es posible en ambos sentidos o uno solo. Asi, se tienen:
    a) redes de comunicaciones unidireccionales en las que la información viaja desde un emisor a un receptor, no existiendo camino de retorno para la comunicación inversa. Este tipo de comunicaciones se suele encontrar en las redes de difusión o distribución.
    b) redes de comunicaciones bidireccionales o interactivas: la información entre los extremos viaja en los dos sentidos, típicamente por el mismo camino, aunque también existen redes en que no tiene por que coincidir los caminos de ida y vuelta. Algunos ejemplos son las redes de telefonía y de datos.
    c) redes híbridas, en las que se integran tipos diferentes de redes; por ejemplo, una red unidireccional para un sentido de la comunicación es combinada con otra red para el camino de retorno. Estas soluciones fragmentarias permiten tener, por ejemplo, servicios interactivos de televisión, en la que ésta es recibida por la red de difusión terrestre o por satélite, mientras que las selecciones del usuario y sus peticiones de vídeo bajo demanda (VoD), se envían por Internet (sobre la red telefónica).
    En cuanto al ancho de banda, hay que señalar que los tipos de información que pueden circular por las redes son muy variados, en cuanto a su naturaleza, tratamiento, degradación y, particularmente de muy distinto ancho de banda. Dentro del ancho de banda de una señal quedan recogidas todas las frecuencias distintas que incorpora la señal. Las variaciones de frecuencia de una señal de voz son muy inferiores a las de una imagen movimiento (vídeo). La tecnología requerida en cada caso es muy distinta; la frecuencia es la variable fundamental del diseño de sistemas de comunicaciones. en sus aspectos de transporte de señal. De aquí, se puede hablar de redes de banda ancha cuando la información que manejan ocupa un rango de frecuencias elevado y de banda estrecha en caso contrario.
    Además, en determinados usos de las redes de comunicaciones, uno de los extremos genera mucha más información que el otro, lo que tiene implicaciones relativas a la ubicación de las infraestructuras de mayor ancho de banda, en el sentido emisor-receptor o en el inverso. El grado de simetría se refiere a la distribución del flujo de información entre los dos extremos de la comunicación, distinguiéndose entre redes asimétricas y redes simétricas. En las primeras uno de los extremos de la comunicación genera mucha mayor cantidad de información que la otra parte y el mayor ancho de banda mayor se situará en el camino de emisor a receptor, siendo muy inferior el dispuesto en sentido contrario.
    Por último si la información y el manejo que se hace de la misma es en formato digital, se puede hablar de redes digitales. Por el contrario si la información y/o el manejo de la misma es analógico, se trata de redes analógicas.


     

sexta generacion

Sexta Generación a la Actualidad
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicosde la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Tipos de computadoras y su clasificación

 Supercomputadoras
 
Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes cantidades de información en poco tiempo y dedicada a una tarea específica.
Por lo mismo son las más caras, su precio alcanza los 30 millones de dólares o más; y cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes alcanzan a tener.
Ejemplos de tareas a las que son dedicadas las supercomputadoras:
  • Búsqueda y estudio de la energía y armas nucleares.
  • Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
  • El estudio y predicción de tornados.
  • El estudio y predicción del clima de cualquier parte del mundo.
  • La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.
Macrocomputadoras o Mainframes

Las macrocomputadoras son también conocidas como mainframes. Los mainframes son sistemas grandes, rápidos y caros con capacidad de controlar cientos de usuarios en forma simultánea, así como manejar cientos de dispositivos de entrada y salida.
Su costo va desde los 350 mil dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. sin embargo las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe.
En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada. 

quinta generacion

Quinta generación de computadoras
 
Saltar a: navegación, búsqueda
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el lenguaje PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.

Historia y desarrollo del proyecto

Antecedentes y diseño

A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras basadas en los modelos desarrollados en los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía, Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos con la participación conjunta de empresas de la industria dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Inicio

En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro Fuchi anunció el programa de investigación y el 14 de abril de 1982 el gobierno decidió lanzar oficialmente el proyecto, creando el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la dirección de Fuchi,5 a quien sucedería en el puesto como director del instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.6
Los campos principales para la investigación de este proyecto inicialmente eran:
  • Tecnologías para el proceso del conocimiento.
  • Tecnologías para procesar bases de datos y bases de conocimiento masivo.
  • Sitios de trabajo del alto rendimiento.
  • Informáticas funcionales distribuidas.
  • Supercomputadoras para el cálculo científico.

Impacto institucional internacional

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.7

cuarta generosion

cuarta generacion
Cuarta Generación (1971-1988)
Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
Características de está generación:


  • Se desarrolló el microprocesador.
  • Se colocan más circuitos dentro de un "chip".
  • "LSI - Large Scale Integration circuit".
  • "VLSI - Very Large Scale Integration circuit".
  • Cada "chip" puede hacer diferentes tareas.
  • Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips".
  • Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
  • Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
  • Se desarrollan las supercomputadoras.
  •  
  • Cuarta generación de computadoras

    Saltar a: navegación, búsqueda
    La denominada Cuarta Generación (1971 a la fecha) es el producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras.

    Historia

    Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chip", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.
    El término PC se deriva para el año de 1981, IBM, sacó a la venta su modelo "IBM PC",cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras , como la Macintosh, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo.

    Microprocesadores

    Microprocesador Intel 8008
    El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores.
    Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation, con 9,3 millones de transistores. El Microprocesador, es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo.
    Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor.
    Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal. Un microprocesador consta de varias secciones diferentes.
     
  • tersera generacion

    tersera generacion
    Tercera Generación (1964-1971)
    La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.
    Características de está generación:


  • Se desarrollaron circuitos integrados para procesar información.
  • Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
  • Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.
  • Surge la multiprogramación.
  • Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.
  • Emerge la industria del "software".
  • Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
  • Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
  • Consumían menos electricidad, por lo tanto, generaban menos calor.
  •  
  • A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales de 1960, investigadores como George Gamow notó que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar. A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
    En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie Edgar.
    Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.
    Esto es lo que ocurrió en (1964-1971) que comprende de la Tercera generación de computadoras:
    • Menor consumo de energía
    • Apreciable reducción del espacio
    • Aumento de fiabilidad
    • Teleproceso
    • Multiprogramación
    • Renovación de periféricos
    • Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11
    • Se calculó π (Número Pi) con 500.000 decimales
     
  • segunda generocion

    segunda generacion
    Segunda Generación (1958-1964)
    En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.
    Características de está generación:


  • Usaban transistores para procesar información.
  • Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
  • 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
  • Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad de calor y eran sumamente lentas.
  • Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
  • Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accsesibles.
  • Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general.
  • La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
  • Surgieron las minicomputadoras y los terminales a distancia.
  • Se comenzó a disminuir el tamaño de las computadoras.    
  •  
  • La segunda generación de las computadoras reemplazó a las válvulas de vacío por los transistores.
    Por ese, las computadoras de la segunda generación son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación.
    Las características más relevantes de las computadoras de la segunda generación son:
    • 1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU pero esta microprogramacion tambien fue cambiada mas tarde por el computador aleman Bastian Shuantiger
    • 1956, IBM vendió por un valor de 1.230.000 dolares su primer sistema de disco magnético, RAMAC [Random Access Method of Accounting and Control]. Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un coste de $10.000 por megabyte.
    • El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).
     
  • primera generacion de computadoras

     primera generacion
    Primera Generación (1951-1958)
    En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:


  • Usaban tubos al vacío para procesar información.
  • Usaban tarjetas perforadas para entrar los datos y los programas.
  • Usaban cilindros magnéticos para almacenar información e instrucciones internas.
  • Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
  • Se comenzó a utilizar el sistema binario para representar los datos.
    En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).
    La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

    Historia

    En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos integrados basados en semiconductores. Las primeras computadoras, incluyeron a la ENIAC, el Electronic Numerical Integrator and Computer, que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora ampliamente comercializada, la UNIVAC I, comenzó a funcionar con éxito. En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que se cerraran los colegios electorales.