Sistemas y Telecomunicaciones
¿Quieres reaccionar a este mensaje? Regístrate en el foro con unos pocos clics o inicia sesión para continuar.


Foro de discusión creado para desarrollar los contenidos Academicos de las materias y temas propuestos de interés para los estudiantes de Sistemas.
 
ÍndiceÍndice  SistemasSistemas  GaleríaGalería  Últimas imágenesÚltimas imágenes  BuscarBuscar  RegistrarseRegistrarse  Conectarse  
Bienvenidos a mis clase desarrolladas, las materias recientemente registradas son Analisis y Diseño de Sistemas Estructurados y Arquitectura Computacional.
No olviden que debn registrase para poder colocar respuestas. Y colocar sus deberes.

 

 DEBER #1 RICHARD RIVERA

Ir abajo 
AutorMensaje
richard.riverar
Novato
Novato



Cantidad de envíos : 11
Puntos : 31
Reputación : 0
Fecha de inscripción : 12/08/2010

DEBER #1 RICHARD RIVERA Empty
MensajeTema: DEBER #1 RICHARD RIVERA   DEBER #1 RICHARD RIVERA EmptySáb Sep 11, 2010 5:24 pm

HISTORIA DE LOS SISTEMAS OPERATIVOS

Deber
Completar la breve historia de los Sistemas Operativos. Tomando en consideración los siguientes hitos históricos.

Década 1940: Primeros computadores, no existen sistemas operativos.

En los años cuarenta se construyen las primeras computadoras como por ejemplo la ENIAC (Electronic Numerical Integrator Analyzer and Computer), la cual era una máquina enorme con un peso de 30 toneladas, que era capaz de realizar 5000 sumas por segundo, 457 multiplicaciones por segundo y 38 divisiones por segundo. Otra computadora de esta época fue el EDVAC (Electronic Discrete Variable Automatic Computer).
En esta época no existían sistemas operativos. El usuario debía codificar su programa a mano y en instrucciones máquina, y debía introducirlo personalmente en la computadora, mediante conmutadores o tarjetas perforadas. Las salidas se imprimían o se perforaban en cintas de papel para su posterior impresión. En caso de errores en la ejecución de los programas, el usuario tenía que depurarlos examinando el contenido de la memoria y los registros de la computadora.
En esta década todos los trabajos se realizaban en serie. Además se requería mucho tiempo para reparar y ejecutar un programa.

Década 1950: Procesamiento Batch.
Con la aparición de la primera generación de computadoras (años cincuenta) se hace necesario racionalizar su explotación, ya que empieza a haber una base mayor de usuarios. Siguiendo la serie del caso anterior, es decir, ahora un trabajo tras otro, para lo cual cada trabajo cumpliría con las siguientes fases:
• Instalación de cintas o fichas perforadas en los dispositivos periféricos.
• Lectura mediante un programa cargador del programa a ejecutar y de sus datos.
• Ejecución del programa.
• Impresión o grabación de los resultados.
• Retirada de cintas, fichas y papel.
La realización de la primera fase se denominaba montar el trabajo.
El problema aquí radicaba era minimizar el tiempo en retirar un trabajo y montar el siguiente.
Para montar el tiempo de montaje de los trabajos, estos se agrupaban en lotes (batch) del mismo tipo (Ej.: programas Fortran, Cobol, etc.), lo que evitaba tener que montar y desmontar las cintas de los compiladores y montadores, aumentando el rendimiento.
En las grandes instalaciones se utilizaban computadoras auxiliares, o satélites, para realizar las funciones de montar y retirar los trabajos.
Como ejemplos de sistemas operativos de esta época se pueden citar el FMS (Fortran Monitor System) e IBYSS, el sistema operativo de la IBM 7094.
Los sistemas operativos de las grandes instalaciones tenían las siguientes características:
• Procesaban un único flujo de trabajos en lotes.
• Disponían de un conjunto de rutinas para pasar de un trabajo al siguiente.
• Permitían la recuperación del sistema si un trabajo acababa en error.
• Tenían un lenguaje de control de trabajos.

Década 1960: Multiprogramación.
Con la aparición de la segunda generación de computadoras (principios de los sesenta) se hizo más necesario mejorar la explotación de las máquinas de altos precios. La multiprogramación se impuso en sistemas de lotes como una forma de aprovechar el tiempo empleado en las operaciones de E/S. Aquí cuando el trabajo necesita de una operación de E/S se solicita al sistema operativo que se encarga de:
• Congelar el trabajo solicitante.
• Iniciar la mencionada operación de E/S por DMA.
• Pasar a realizar otro trabajo residente en memoria.

También en esta época aparecen otros modos de funcionamiento muy importantes:
• Se construyen los primeros multiprocesadores, en los que varios procesadores forman una sola máquina de mayores prestaciones.
• Se introduce el concepto de independencia de dispositivo. El usuario ya no tiene que referirse en sus programas a una unidad de cinta magnética o a una impresora en concreto. Se limita a especificar que quiere grabar un archivo determinado o imprimir unos resultados. Aquí el sistema operativo se encarga de asignarle, de forma dinámica, una unidad disponible.
• Aparecen en esta época, los primeros sistemas de tiempo real. Se trata de aplicaciones militares, en concreto para detección de ataques aéreos. En este caso, la computadora está conectada a un sistema externo y debe responder velozmente a las necesidades de ese sistema externo.
Durante esta época se desarrollaron, entre otros, los siguientes sistemas operativos: el CTSS [Corbato, 1962], desarrollado en el MIT y que fue el primer sistema de tiempo compartido. El OS/360 [Mealy, 1966], sistema operativo utilizado en las máquinas de la línea 360 de IBM; y el sistema MULTICS [Organick, 1972], desarrollado en el MIT con participación de los laboratorios Bell y que evolucionó posteriormente para convertirse en el sistema operativo UNIX.

Década 1970 (principios): Time-Sharing & minicomputadores.
Comienzan los sistemas de tiempo compartido o timesharing. Estos sistemas estamos acostumbrados en la actualidad, permiten que varios usuarios trabajen de forma interactiva o conversacional con la computadora desde terminales, que en aquellos días eran teletipos electromecánicos. Aquí el sistema operativo se encarga de repartir el tiempo de la UPC entre los distintos usuarios, asignado pequeños intervalos de tiempo de la UPC denominadas rodajas.
Esta es la época de los sistemas de propósito general y se caracteriza por los sistemas operativos multimodo de operación, esto es, capaces de operar en lotes, en multiprogramación, en tiempo real, en tiempo compartido y en modo multiprocesador.
Uno de los inconvenientes de estos sistemas operativos rea su complejo lenguaje de control que debían aprenderse los usuarios para preparar sus trabajos, puesto que era necesario especificar multitud de detalles y opciones. Otro inconveniente era el gran consumo de recursos que ocasionaban, esto es, los grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de UPC consumido.
Esta década fue importante por la aparición de dos sistemas que tuvieron una gran difusión, UNIX [Bach, 1986] y MVS [Samson, 1990] de IBM.
La primera versión ampliamente disponible de UNIX fue la versión 6 de los laboratorios Bell, que apareció en 1976. A esta le siguió la versión 7 en 1978. En 1982 aparece una versión de UNIX desarrollada por la Universidad de California en Berkeley, la cual introdujo mejoras importantes como la inclusión de memoria virtual y la interfaz de sockets para la programación de aplicaciones sobre protocolos TCP/IP.

Década 1980 (principios): Microprocesadores & PC.
En la cuarta generación la electrónica avanza hacia la integración a gran escala, pudiendo crear circuitos con miles de transistores en un centímetro cuadrado de silicón y ya es posible hablar de las computadoras personales y las estaciones de trabajo. Surgen los conceptos de interfaces amigables intentando así atraer al público en general al uso de las computadoras como herramientas cotidianas. Se hacen populares el MS-DOS y UNIX en estas máquinas. También es común encontrar clones de computadoras personales y una multitud de empresas pequeñas ensamblándolas por todo el mundo.
La 360 de IBM fue la primera línea principal de computadoras que utilizó los circuitos integrados, lo que proporcionó una gran ventaja en el precio y desempeño con respecto a las máquinas de la segunda generación, construidas a partir de transistores individuales. Se trabajo con un sistema operativo enorme y extraordinariamente complejo. A pesar de su enorme tamaño y sus problemas el sistema operativo de la línea IBM 360 y los sistemas operativos similares de esta generación producidos por otros fabricantes de computadoras realmente pudieron satisfacer, en forma razonable a la mayoría de sus clientes. También popularizaron varias técnicas fundamentales, ausentes de los sistemas operativos de la segunda generación, de las cuales la más importante era la de multiprogramación.
Otra característica era la capacidad de leer trabajos de las tarjetas al disco, tan pronto como llegara al cuarto de cómputo. Así, siempre que concluyera un trabajo el sistema operativo podía cargar un nuevo trabajo del disco en la partición que quedara desocupada y ejecutarlo.

Década 1970, 1980: Redes, Sistemas Distribuidos, Sistemas Paralelos.
En esta década adquiere cada vez más importancia el tema de las Redes de Computadoras, tanto redes de largo alcance como locales. En concreto, la disminución del coste del hardware hace que se difunda el proceso distribuido, en contra de la tendencia centralizadora anterior. El proceso distribuido consiste en disponer de varias computadoras, cada una situada en el lugar de una única central. Estas computadoras suelen estar unidas mediante una red, de forma que pueden compartir información y periféricos.
En los sistemas operativos de red, los usuarios están conscientes de la existencia de varias computadoras y pueden conectarse con máquinas remotas y copiar archivos de una máquina a otra. Cada máquina ejecuta su propio sistema operativo local y tiene su propio usuario.
Por el contrario, un sistema operativo distribuido es aquel que aparece ante sus usuarios como un sistema tradicional de un solo procesador, aun cuando esté compuesto por varios procesadores. En un sistema distribuido verdadero, los usuarios no deben ser conscientes del lugar donde su programa se ejecute o de lugar donde se encuentren sus archivos; eso debe ser manejado en forma automática y eficaz por el sistema operativo. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones (y problemas) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes.
Además se difunde el concepto de máquina virtual, consistente en que una computadora X, incluyendo su sistema operativo, sea simulada por otra computadora Y. Su ventaja es que permite ejecutar, en la computadora Y, programas preparados para la computadora X, lo que posibilita el empleo de software elaborado por la computadora X, sin necesidad de disponer dicha computadora.
También los sistemas de base de datos sustituyen a los archivos en multitud de aplicaciones.
Los sistemas operativos que dominaron el campo de las computadoras personales fueron UNIX, MS-DOS y los sucesores de Microsoft para este sistema: Windows 95/98, Windows NT y Windows 2000.
También ha tenido importancia durante esta época el desarrollo de Linux. Linux es un sistema operativo similar a UNIX, desarrollado de forma desinteresada durante la época de los noventa por miles de voluntarios conectados a Internet.
Durante esta época se desarrollan también los sistemas operativos de tiempo real, encargados de ofrecer servicios especializados para el desarrollo de aplicaciones de tiempo real. Algunos ejemplos son: QNX [QNX, 1997], RTEMS y VRTX [Ready, 1986].

Década 1990 y Futuro: PC’s, WWW, Sistemas Móviles (redes móviles e inalámbricas), Sistemas Distribuidos.
Para los noventa el paradigma de la programación orientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS). Los niveles de interacción se van haciendo cada vez más profundos.
Los sistemas operativos distribuidos han dejado de tener importancia y han evolucionado durante la década de los noventa a lo que se conoce como middleware. Un middleware es una capa de software que se ejecuta sobre un sistema operativo ya existente y que se encarga de gestionar un sistema distribuido. La diferencia es que ejecuta sobre sistemas operativos ya existentes que pueden ser además distintos, lo que hace más atractiva su utilización. Dos de los middleware más importantes de esta década han sido DCE [Rosemberry, 1992] y CORBA [Otte, 1996]. Microsoft también ofrece su propio middleware conocido como DCOM [Rubin, 1999].
Durante esta etapa tiene importancia el desarrollo del estándar POSIX. Este estándar persigue que las distintas aplicaciones que hagan uso de los servicios de un sistema operativo sean portable sin ninguna dificultad a distintas plataformas de sistemas operativos diferentes. Otra de las interfaces más utilizadas es la interfaz Win32, interfaz de los sistemas operativos Windows 95/98, Windows NT y Windows 2000.
En el futuro próximo, la evolución de los sistemas operativos se va a orientar hacia las plataformas distribuidas y la computación móvil. Gran importancia tendrá la construcción de sistemas operativos y entornos que permitan utilizar estaciones de trabajo heterogéneas (computadoras de diferentes fabricantes con sistemas operativos distintos) conectados por redes de interconexión, como una máquina centralizada y facilitará el trabajo cooperativo.

Volver arriba Ir abajo
 
DEBER #1 RICHARD RIVERA
Volver arriba 
Página 1 de 1.

Permisos de este foro:No puedes responder a temas en este foro.
Sistemas y Telecomunicaciones :: Foro de Sistemas Operativos :: CISC 2010-C2 :: Deber 1 - Historia de los Sistemas Operativos-
Cambiar a: