Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Sistemas Operativos
Centralizados y Distribuidos
Curso: Sistemas Operativos
Nombre:
Cueva Chamorro, Diego Alonso
2009
Índice de contenido
1) Sistemas Operativos Centralizados.............................................................................................. 4
1.1) Concepto ............................................................................................................................... 4
1.2) Gestión de procesos.............................................................................................................. 5
1.3) Gestión de memoria .............................................................................................................. 5
1.4) Gestión de dispositivos.......................................................................................................... 6
1.5) Gestión de archivos ............................................................................................................... 6
2) Sistemas Operativos Distribuidos................................................................................................. 7
2.1) Concepto ............................................................................................................................... 7
2.2) Ventajas y Desventajas ......................................................................................................... 7
2.3) Aspectos del Diseño .............................................................................................................. 8
2.3.1) Transparencia................................................................................................................. 8
2.3.2) Flexibilidad...................................................................................................................... 9
2.3.3) Confiabilidad ................................................................................................................... 9
2.3.4) Desempeño .................................................................................................................... 9
2.3.5) Escalabilidad................................................................................................................... 9
2.4) Comunicación en los sistemas distribuidos ......................................................................... 10
2.5) Sincronización en sistemas distribuidos .............................................................................. 10
2.6) Procesos y procesadores .................................................................................................... 10
2.7) Sistemas distribuidos de archivos ....................................................................................... 11
2.8) Memoria compartida distribuida........................................................................................... 11
2.9) Modelos de Sistemas Distribuidos....................................................................................... 12
2.9.1) Grupos de Procesadores.............................................................................................. 12
2.9.2) Cliente Servidor ............................................................................................................ 12
3) Comparación entre Sistemas Operativos Centralizados y Distribuido ....................................... 13
4) Ejemplos ..................................................................................................................................... 14
4.1) Ejemplos de Sistemas Operativos Centralizados ................................................................ 14
4.1.1) DOS .............................................................................................................................. 14
4.1.2) UNIX ............................................................................................................................. 15
4.1.3) Mac OS......................................................................................................................... 15
4.2) Ejemplos de Sistemas Operativos Distribuidos ................................................................... 16
4.2.1) Amoeba ........................................................................................................................ 16
4.2.2) Mach ............................................................................................................................. 17
4.2.3) Chorus .......................................................................................................................... 18
4.2.4) DCE .............................................................................................................................. 18
Bibliografía ...................................................................................................................................... 21
Conclusiones .................................................................................................................................. 20
Sistemas Operativos Centralizados y Distribuidos
1.1) Concepto
Si queremos dar una definición simple de lo que es un sistema operativo centralizado, diremos que
se trata de de aquel que utiliza los recursos de una sola computadora, es decir, su memoria, CPU,
disco y periféricos.
Respecto al hardware podemos decir que se suele tratar de un computador caro y de gran potencia,
con terminales alfanuméricos directamente conectados. Suele tratarse de una computadora de tipo
desktop, en las cuales es común encontrar un monitor grande con un teclado y un mouse; además de
un case para albergar la unidad de procesamiento y los demás componentes.
Podemos encontrar este tipo de sistemas operativos en un entorno de empresa, en el cual puede
haber un soporte multiusuario. Las empresas, en especial las antiguas, utilizan una mainframe
potente para dar capacidad de cómputo a muchos terminales, o también se puede encontrar
empresas con abundantes minicomputadores para los empleados que las necesiten en sus
actividades. Uno de los primeros modelos de ordenadores interconectados fue el centralizado,
donde todo el procesamiento de la organización se llevaba a cabo en una sola computadora,
normalmente un Mainframe, y los usuarios empleaban sencillos ordenadores personales.
Los problemas de este modelo son que cuando la carga de procesamiento aumentaba se tenía que
cambiar el hardware del Mainframe, lo cual es más costoso que añadir más computadores
personales clientes o servidores que aumenten las capacidades. El otro problema que surgió son las
modernas interfases gráficas de usuario, las cuales podían conllevar a un gran aumento de tráfico en
los medios de comunicación y por consiguiente podían colapsar.
En un entorno familiar se puede encontrar una computadora. Estas tienen un sistema operativo
centralizado porque el ordenador es único y no necesita trabajar en paralelo con ninguna otra
computadora, ya que no se encuentra conectado a ninguna. Normalmente estos ordenadores tienen
uno o dos procesadores potentes y caros que satisfacen las necesidades de cómputo del usuario.
En estos sistemas hay un uso ocasional de la red, como para transferir ficheros o logins remotos.
Actualmente prácticamente todos (por no decir todos) los sistemas operativos permiten la
transferencia de ficheros. Uno puede conectarse con una máquina en la misma red y acceder a los
documentos que ésta esté dispuesta a compartir por orden del usuario o viceversa. Pero no se trata
de una transferencia realmente transparente pues el usuario está consciente de que está accediendo a
archivos almacenados en un disco diferente al que le pertenece, al que forma parte de su
computadora. Asimismo es posible conectarse de forma remota a otra computadora como en el caso
de la asistencia remota, pero son más que nada utilidades o funciones agregadas que permite
realizar el sistema operativo centralizado, sin llegar a ser lo que buscaba como objetivo principal el
sistema al ser diseñado.
Son muy conocidos los sistemas centralizados con los que contamos en la actualidad, basta con
empezar por los que tenemos instalados en nuestras propias computadoras como Windows, Linux,
Mac OS, Unix, etc.
Los procesos pueden comunicarse entre sí a través de memoria compartida, ya sean variables
compartidas o buffers, o a través de las herramientas provistas por las rutinas de IPC (Interprocess
Communication). La IPC provee un mecanismo que permite a los procesos comunicarse y
sincronizarse entre sí. Normalmente a través de un sistema de bajo nivel de paso de mensajes que
ofrece la red subyacente.
Hay varios modelos de sincronización de procesos tales como el de exclusión mutua, semáforos y
mensaje. En el caso de un sistema operativo centralizado se puede usar la memoria compartida para
facilitar la sincronización.
El sistema operativo debe decidir qué proceso ejecutar de aquellos que están listos para ejecución.
El planificador es la parte del sistema operativo que realiza la decisión mediante el algoritmo de
planificación. Los objetivos son mejorar la equidad, eficiencia, tiempo de respuesta, minimizar el
tiempo de proceso global y maximizar el número de trabajos procesados. El problema es que el
comportamiento de los procesos es único e impredecible. Se puede usar diferentes algoritmos de
planificación
El manejo de memoria tiene que ver con la asignación de memoria, el mapeo lógico y físico, la
memoria virtual y los mecanismos de protección. En el sistema centralizado se maneja sólo la
memoria con la que cuenta la computadora en la que está instalado el sistema.
Es la parte del sistema encargada de asignar memoria a los procesos, tratará de repartir de forma
eficiente la memoria para introducir tantos procesos como sea posible.
El manejo de la memoria virtual consiste en hace creer a los programas que existe una memoria
principal de gran tamaño y explota localidad de acceso a través de la jerarquía de memoria. Además
la gestión de memoria debe cumplir algunos requisitos de protección como que el código de un
proceso no debe hacer referencia a posiciones de otros procesos sin permiso.
Sobre el manejo de dispositivos podemos tratar los driver de los dispositivos, el buffering y el
spooling. Para que sea un sistema centralizado la gestión de dispositivos debe encargarse sólo de los
dispositivos que le pertenecen a una sola computadora.
La gestión de dispositivos tiene que ver con los drivers y con los controladores. Los drivers o
manejadores son programas que se encargan de detalles que son dependientes de los dispositivos.
Los controladores son elementos electrónicos de la unidad E/S, los cuales brindan una abstracción
de lo que hace el dispositivo pues uno le envía la función al controlador y él se encarga de ver que
el dispositivo realice las acciones necesarias.
Para el manejo de archivos hay que tener en cuenta el acceso a archivos, la compartición de
archivos, el control de concurrencia y la replicación de datos. Es la parte del sistema operativo
centralizado que se encarga de proporcionar a los usuarios y aplicaciones servicios de para el uso,
acceso y control de accesos, tanto de archivos como a directorios.
Los objetivos básicos de la gestión de archivos son: garantizar que la información del archivo sea
valida, optimizar el acceso a los archivos, proveer soporte E/S a gran variedad de dispositivos de
almacenamiento, entregar los datos que el usuario pide, minimizar o eliminar una potencial perdida
de datos, proveer un conjunto estándar de rutinas E/S, proveer soporte de E/S a múltiples usuarios.
Las funciones básicas que debe cubrir son las de crear un archivo, borrar un archivo abrir un
archivo y cerrar un archivo.
2) Sistemas Operativos Distribuidos
2.1) Concepto
De eso podemos entender que las máquinas son autónomas y los usuarios siempre piensan que el
sistema es como una única computadora. Un sistema distribuido se caracteriza por comportarse
frente al usuario como una sola máquina; el usuario desconoce sobre qué procesador se está
ejecutando sus procesos y dónde residen sus ficheros.
Otro ejemplo es el de un enorme banco con cientos de sucursales por todo el mundo. Cada oficina
tiene una computadora maestra para guardar las cuentas locales y el manejo de las transacciones
locales. Además cada computadora tiene la capacidad de comunicarse con las otras sucursales y con
una computadora central en las oficinas centrales. Si las transacciones se pueden realizar sin
importar dónde se encuentre el cliente o la cuenta y los usuarios no observan diferencia alguna entre
este sistema y el antiguo centralizado que ha reemplazado también se podría considerar como un
sistema distribuido.
Los sistemas operativos de red están formados por un software débilmente acoplado en un hardware
débilmente acoplado. De no ser por el sistema compartido de archivos a los usuarios les parecería
que el sistema consta de varias computadoras. Puede ejecutar su propio sistema operativo y hacer lo
que quiera. El siguiente paso en la evolución es el del software fuertemente acoplado en hardware
débilmente acoplado, esta es la aparición de los sistemas distribuidos. El objetivo es crear la ilusión
en las mentes de los usuarios que toda la red de computadoras es un sistema de tiempo compartido,
en vez de máquinas diversas.
Debe haber un mecanismo de comunicación global entre los procesos, de forma que cualquier
proceso pueda comunicarse con cualquier otro. También un sistema global de protección. La
administración de procesos debe ser la misma en todas partes. La forma en que se crean, destruyen
y detienen los procesos no debe variar de una máquina a otra. También el sistema de archivos debe
tener la misma apariencia en todas partes. Como consecuencia lógica de hecho de tener una misma
interfaz de llamadas al sistema en todas partes, es normal que se ejecuten núcleos idénticos en todos
los CPU de sistema. Eso facilita la coordinación de las actividades globales. Por ejemplo, cuando se
inicie un proceso, todos los núcleos deben cooperar en la búsqueda del mejor lugar para ejecutarlo.
Los sistemas distribuidos se basan en la utilización de sistemas de transmisión fiables, eficaces,
rápidos que permitan integrar sistemas de distintos fabricantes.
La descentralización económica. Por ejemplo, en el caso de los CPU, si uno está dispuesto a pagar
el doble so obtiene el mismo CPU sólo que con una velocidad un poco mayor. De tal forma, es más
cómodo limitarse a un gran número de CPU baratos reunidos en un mismo sistema. Los sistemas
distribuidos tienen en potencia una proporción precio/desempeño mucho mejor que la de un sistema
centralizado.
Además ciertas aplicaciones son distribuidas en forma inherente. Una cadena de supermercados
podría tener muchas tiendas las cuales reciben los artículos de manera local realiza ventas locales y
toma decisiones locales acerca de las verduras que están viejas o podridas y qué debe hacerse. Por
lo tanto, tiene sentido mantener un inventario de cada tienda dentro de una computadora local a la
vez de tenerlo de manera central en las oficinas de la compañía. Después de todo, la mayoría de las
solicitudes y actualizaciones se harían en forma local. Sin embargo de vez en cuando la
administración central podría tratar de determinar la cantidad de nabos que posee en cierto
momento. Una forma de lograr este objetivo es hacer que todo el sistema se vea como una
computadora para los programas de aplicación pero implementado de manera descentralizada en
una computadora por tienda como ya se ha descrito. Éste sería entonces un sistema distribuido
comercial.
Otra ventaja sobre los sistemas centralizados es la confiabilidad. Al distribuir la carga de un trabajo
en muchas máquinas la falla de un circuito descompondría a lo más una máquina y el resto seguiría
intacto. También está el crecimiento por incrementos, ya que no es necesario comprar una nueva
mainframe carísima cuando la empresa necesita más poder de cómputo.
El peor de los problemas es el software: qué lenguajes de programación utilizar, que aplicaciones
son adecuadas.
El problema de las redes de comunicación. Se pueden perder mensajes, lo cual requiere un software
especial para su manejo y puede verse sobrecargado. Al saturarse la red ésta debe reemplazarse o
añadir una segunda. De cualquier forma, es un gran costo.
El hecho que los datos se puedan compartir puede ser un arma de doble filo, pues también pueden
acceder a datos que no les corresponde ver. La seguridad es con frecuencia un problema.
2.3.1) Transparencia
Tal vez sea el aspecto más importante. Consiste en engañar a todas las personas para que piensen
que la colección de máquinas es tan solo un sistema de tiempo compartido de un procesador, a la
manera antigua.
La transparencia se puede lograr en dos niveles distintos. Lo más fácil es ocultar la distribución a
los usuarios. Para ellos lo único poco usual es que el desempeño del sistema tiene un cambio
decente. En un nivel inferior también es posible que el sistema sea transparente para los programas.
Se puede diseñar la interfaz de llamadas al sistema de modo que no sea visible la existencia de
varios procesadores.
Hay varios tipos de transparencia:
Transparencia de localización: Los usuarios no pueden indicar la localización de los
recursos.
Transparencia de migración: Los recursos se pueden mover a voluntad sin cambiar sus
nombres.
Transparencia de réplica: Los usuarios no pueden indicar el número de copias existentes.
Transparencia de concurrencia: Varios usuarios pueden compartir recursos de manera
automática.
Transparencia de paralelismo: Las actividades pueden ocurrir en paralelo sin el
conocimiento de los usuarios.
2.3.2) Flexibilidad
Es importante que el sistema sea flexible. Junto con la transparencia son fundamentales. Es bueno
mantener las opciones abiertas. Existen dos escuelas de pensamiento en cuanto a la estructura de los
sistemas distribuidos. Una escuela mantiene que cada máquina debe ejecutar un núcleo tradicional
que proporcione la mayoría de los servicios. La otra consiste que el núcleo proporcione lo menos
posible y que el grueso de los servicios del sistema operativo se obtenga a partir de los servidores a
nivel de usuario. Estos dos modos son conocidos como el núcleo monolítico y micronúcleo.
2.3.3) Confiabilidad
La idea es que si una máquina falle, otra se encargue del trabajo. Los sistemas distribuidos actuales
cuentan con que un número de ciertos servidores sirvan para que el todo funcione.
2.3.4) Desempeño
Una posibilidad es prestar atención al grano de todos los cálculos. En general, los trabajos que
implican gran número de pequeños cálculos, en particular aquellos que interactúan en gran medida
con otros, pueden ser la causa de algunos problemas en los sistemas distribuidos con una
comunicación lenta.
2.3.5) Escalabilidad
La mayor parte de los sistemas distribuidos están diseñados para trabajar con unos cuantos cientos
de CPU. Un sistema distribuid puede empezar con una cantidad manejable de usuarios, pero cuando
pasa el tiempo puede que se tenga un sistema distribuido con decenas de millones de usuarios. La
cuestión es si los métodos que se desarrollan en la actualidad podrán escalarse hacia tales grandes
sistemas.
Lo que queda claro es que se debe evitar los componentes, tablas y algoritmos centralizados, pues
no es una buena idea tener un solo servidor de correo para 50 millones de usuarios. Además, el
servidor no toleraría bien las fallas.
Para los sistemas distribuidos de área amplia relativamente lentos, se utilizan los protocolos de
capas orientadas hacia la conexión como OSI y TCP/IP, puesto que el problema principal por
resolver es el transporte confiable de los bits a través de líneas físicas pobres. Para los basados en
LAN, los protocolos con capas se utilizan muy pocos. En vez de ellos, se adopta por lo general un
modelo mucho más sencillo donde el cliente envía un mensaje al servidor y éste envía de regreso
una respuesta al cliente. También se utiliza mucho la llamada a procedimientos remotos (RPC).
Con ella un proceso cliente que se ejecuta en una máquina llama a un procedimiento que se ejecuta
en otra máquina.
Es importante la forma en que los procesos cooperan y se sincronizan entre sí. Por ejemplo, la
forma de implantar las regiones críticas o asignar recursos en un sistema distribuido.
En los sistemas con un CPU, los problemas relativos a regiones críticas, la exclusión mutua y la
sincronización se resuelven en general mediante métodos tales como los semáforos y monitores.
Pero estos no son adecuados para sistemas distribuidos, puesto que siempre se basan en la
existencia de memoria compartida, por lo que se necesitan otras técnicas. La mayoría de sistemas
operativos distribuidos tienen un paquete de hilos.
La sincronización de procesos en los sistemas distribuidos resulta más compleja que en los
centralizados, debido a que la información y el procesamiento se mantienen en diferentes nodos. Un
sistema distribuido debe mantener vistas parciales y consistentes de todos los procesos cooperativos
y de cómputo. Tales vistas pueden ser provistas por los mecanismos de sincronización. La
sincronización no tiene por qué ser exacta, y bastará con que sea aproximadamente igual en todos
los ordenadores. Hay que tener en cuenta, eso sí, el modo de actualizar la hora de un reloj en
particular.
Se utilizan por lo común dos modelos de organización de los procesadores: el modelo de estación
de trabajo y el modelo de la pila de procesadores. En el primero, cada usuario tiene su propia
estación de trabajo y a veces puede ejecutar procesos en las estaciones de trabajo inactivas. En el
segundo, todas las instalaciones de cómputo son un recurso compartido. Los procesadores se
asignan de manera dinámica a los usuarios conforme sea necesario y se regresan a la pila al
terminar el trabajo.
Dada una colección de procesadores, se necesita un algoritmo para asignar los procesos a los
procesadores. Tales algoritmos pueden ser deterministas o heurísticos, centralizados o distribuidos,
óptimos o subóptimos, locales o globales, iniciados por el emisor o por el receptor.
Aunque los procesos se planifican por lo general de manera independiente, se puede mejorar el
desempeño mediante la co planificación, para garantizar que los procesos que deben comunicarse se
ejecutan al mismo tiempo. Sobre la planificación en los sistemas distribuidos podemos decir que
por lo general cada procesador hace su planificación local sin preocuparse por lo que hacen los
demás procesadores. También hay varios algoritmos de coplanificación, que toman en cuenta los
patrones de comunicación entre los proceso durante la planificación para garantizar que todos los
miembros de un grupo se ejecuten al mismo tiempo.
El servicio de archivos es la especificación de los servicios que el sistema de archivos ofrece a los
clientes. El servidor de archivos es un proceso que se ejecuta en alguna máquina y ayuda a
implantar el servicio de archivos. Puede haber uno o varios servidores de archivos pero los clientes
no deben conocer cuántos hay ni su posición o función. Todo lo que saben es llamar a los
procedimientos especificados en el servicio de archivos y el trabajo se hace en alguna parte. Lo
ideal es que se vea como un sistema de archivos normal de un procesador. Puede haber varios
servidores de archivos, por ejemplo uno UNIX y uno en MS-DOS.
Hay varios modelos de semántica, como la semántica UNIX, la semántica de sesión, los archivos
inmutables y la semántica de transacción. La semántica UNIX es intuitiva y familiar para la
mayoría de los programadores pero su implantación es cara. La semántica de sesión es menos
determinística pero más eficiente. Los archivos inmutables no son familias para la mayoría de
personas y las transacciones suelen ser redundantes. NFS ilustra como construir un sistema
distribuido de archivos.
No se puede utilizar muchos procesadores con una sola memoria compartida porque se origina un
cuello de botella. En el caso de las multicomputadoras, como no hay memoria compartida se tiene
que utilizar la transferencia de mensajes, haciendo que la entrada/salida sea la abstracción central.
La transferencia de mensajes trae consigo varios aspectos delicados como el flujo de control, la
pérdida de mensajes, el uso de buffer y el bloqueo. Aunque se han propuesto varias soluciones, la
programación con transferencia de mensajes es todavía difícil.
También se propuso las llamadas a procesamientos remotos. Para utilizar un servicio remoto, un
proceso solo llama al procedimiento de la biblioteca adecuada, el cual empaqueta el código de la
operación y los parámetros del mensaje, enviándolo por la red y esperando la respuesta.
Se utilizan tres técnicas generales para proporcionar memoria compartida. La primera estimula el
modelo de memoria de multiprocesador, dando a cada proceso una memoria paginada lineal. Las
páginas se mueven de una máquina a otra según sea necesario. La segunda utiliza los lenguajes de
programación ordinarios con variables compartidas anotadas. La tercera se basa en los modelos de
programación de alto nivel, como las n-adas y los objetos.
En un sistema operativo distribuido, la memoria pasa a ser físicamente privada pero lógicamente
compartida. Es decir, un computador ejecuta los programas en su memoria propia, pero en caso de
necesitar mas memoria utilizara los recursos disponibles de otra computadora que este capacitada y
preparada dentro de la red para compartir su memoria.
Hay distintas topologías en que se basan los sistemas distribuidos. Son las siguientes:
En este modo, al abrir una sesión, el sistema asigna al usuario un procesador, pudiendo hacerlo en
función a la sobrecarga, la proximidad o cualesquiera otros parámetros que fije el diseñador. Un
método más sencillo y menos comprometido es hacer que el usuario elija el nodo al que quiere
conectarse, pero se pierde en transparencia y puede dar lugar a fuertes desequilibrios en el sistema.
La topología se basa en varios ordenadores unidos a través de una red de comunicaciones la cual se
pueden conectar los usuarios a través de sus ordenadores personales. Es un paso en la evolución de
los sistemas distribuidos pero falta un sistema de ficheros transparente y global desapareciendo la
idea de nodos.
En este se cuenta con clientes que dan acceso a usuarios a los servicios y servidores que contienen
la información, servicios, etc. Una máquina puede ser cliente en un servicio y servidor en otro.
Aunque el modelo cliente-servidor no satisface todos los requisitos necesarios para todas las
aplicaciones distribuidos, es adecuado para muchas de las aplicaciones actuales y provee una base
efectiva para los sistemas operativos distribuidos de propósito general.
4) Ejemplos
4.1.1) DOS
Trabaja con comandos en modo texto formados por órdenes difíciles de recordar. Sólo se puede
ejecutar un programa en cada momento. La capacidad de aumentar el espacio de su disco duro, un
antivirus, una nueva versión del programa de apoyo y recuperación de datos, que por años no fue
mejorado, capacidad de intercambiar datos entre computadoras por medio de un cable, optimización
del uso de la memoria RAM y otras interesantes opciones. El DOS no es ni multiusuario ni
multitarea. No puede trabajar con más de un usuario ni en más de un proceso a la vez.
4.1.2) UNIX
Es un sistema universal, válido para toda clase de ordenadores, grandes y pequeños. Para el Unix
todo es un archivo. Permite crear archivos con nombres hasta de 255 caracteres de largo. Tiene
algunas características de sistema distribuido, ya que existe un nombre único para todos los ficheros
disponibles en la red, y que es independiente de la máquina, o más específicamente, en ese nombre
no se incluye el nombre de la máquina en el que el fichero está almacenado.
El núcleo es un programa escrito casi en su totalidad en lenguaje C, con excepción de una parte del
manejo de interrupciones, expresada en el lenguaje ensamblador del procesador en el que opera.
El kernel hace que la computadora funcione bajo Unix y que los usuarios puedan compartir
eficientemente todos los recursos. Cada usuario puede interactuar con el Sistema Operativo con el
Interpretador de Comandos (Shell) de su agrado entre los que se destacan: El Bourne Shell , el C
Shell , El Korn Shell , el Bourne Again Shell.
El Unix utiliza y administra muy eficientemente la memoria. En la memoria libre atiende a los
procesos. A cada proceso le da la cantidad exacta de memoria que aquél necesite, desde pocos
kilobytes hasta varios megabytes. Cuando se acaba la memoria, utiliza el Area de Swap que es una
memoria virtual. Esto permite que se pueda ejecutar un programa que sea más grande que la
memoria RAM total que tenga un servidor de Unix.
Tiene capacidad de interconexión de procesos. Además permite comunicación entre procesos. Unix
emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y
procesos.
4.1.3) Mac OS
MacOS es abreviatura de Macintosh Operating System (Sistema Operativo
de Macintosh). El Mac OS original fue el primer sistema operativo con una
interfaz gráfica de usuario en tener éxito. El equipo de Macintosh incluía a
Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Este sistema operativo tiene un nucleo de la familia unix mas especificamente deriva de nexstep que
era un sistema operativo cuyo nucleo tenia codigo del kernel Mach y del de BSD. Mac OS utiliza
como gestor de ventanas x11 caracteristica que comparte con otros sistemas Unix
La arquitectura para la que fue diseñado originalmente eran para las Power PC es decir
computadoras de tipoRisc desarrolladas por IBM,Motorola y Apple. Es decir que esta ultima hizo
un sistema operativo especifico para un hardware que ellos tambien desarrollaron lo que le dio una
gran estabilidad y eficacia al sistema en su conjunto.
A partir del 2006 comenzaron a migrar a procesadores Intel utilizando los llamados binarios
universales, es decir, aplicaciones que contienen el código binario de ambas plataformas para su
ejecución transparente.
Existen varias versiones 10.1 Puma,10.2 Jaguar,10.3 Panther , 10.4 Tiger y 10.5 Leopard y 10.6
Snow Leopard y cada una ha ido incorporando mejoras.
4.2.1) Amoeba
Para evitar el enorme trabajo de escribir grandes cantidades de software de aplicación se añadió un
paquete de emulación de UNIX. El objetivo principal del proyecto era construir un sistema
operativo distribuido y transparente. Para un usuario normal, funciona igual que un sist. tradicional.
Amoeba no tiene el concepto de máquina de origen. Cuando un usuario entra al sistema entra a éste
como un todo y no a una máquina específica. El shell inicial se ejecuta en cierta máquina arbitraria,
y los comando en otra máquina en general no la misma que la del shell. El sistema busca la
máquina con la menor carga para ejecutar el nuevo comando. Amoeba es muy transparente respecto
a la ubicación. Todos los recursos pertenecen al sistema como un todo y son controlados por él.
Se diseñó con dos hipótesis respecto al hardware: los sistemas tienen un número muy grande de
CPU y cada CPU tendrá decenas de megabytes de memoria. Se basa en el modelo de pila de
procesadores. Este consta de varios CPU, cada uno con su propia memoria local y conexión a la red.
No se necesita la memoria compartida, pero si está presente se utiliza para optimizar la transferencia
de mensajes al hacer el copiad de una memoria a otra, en vez de enviar mensajes a través de la red.
Cuando un usuario escribe un comando, el sistema operativo asigna en forma dinámica uno o más
procesadores para ejecutar ese comando. Al terminar el comando, se terminan los procesos y los
recursos regresan a la pila, en espera de siguiente comando. El usuario tiene acceso al sistema a
través de un terminal. También puede tratarse de una computadora personal o estación de trabajo.
La idea es proporcionar terminales baratos y concentrar los ciclos de cómputo en una pila común
para utilizarlos con mayor eficiencia.
Amoeba consta de dos partes fundamentales, un micronúcleo que se ejecuta en cada procesador y
una colección de servidores que proporcionan la mayor parte de la funcionalidad de un sistema
operativo tradicional. Se soportan tres mecanismos de comunicación: RPC y FLIP simple para la
comunicación puntual y la comunicación confiable en un grupo par ala comunicación entre partes.
El sistema de archivos de Amoeba consta de tres servidores: el servidor de archivos para el
almacenamiento de éstos, el de directorios para otorgar nombres y el de réplicas para la réplica de
archivos.
4.2.2) Mach
Los objetivos de este proyecto han ido variando con el tiempo. Los objetivos se pueden resumir en:
Proporcionar una base para la construcción de otros sistemas operativos
Soporte de un espacio de direcciones ralo y de gran tamaño
Permitir el acceso transparente a los recursos de la red
Explorar el paralelismo tanto en el sistema como en las aplicaciones
Hacer que Mach se pueda transportar a una colección más grande de máquinas.
La idea es explorar los multiprocesadores y los sistemas distribuidos, a la vez que se puedan emular
los sistemas ya existentes como UNIX, MS-DOS y Macintosh.
El micronúcleo de Mach se diseñó para emular a UNIX y otros sistemas operativos. Esto se lleva a
cabo mediante una capa del software que se ejecuta fuera del núcleo, en el espacio del usuario.
Cada emulador consta de una parte que está presente en el espacio de direcciones de los programas
de aplicación, así como uno o más servidores que se ejecutan de manera independiente a los
programas de aplicación. Se pueden ejecutar varios emuladores al mismo tiempo.
Mach se basa en los conceptos de procesos, hilos, puertos y mensajes. Mach tiene un sistema de
memoria virtual muy elaborado con objetivos de memoria que se pueden asociar o desasociar de los
espacios de direcciones, respaldado por administradores de memoria externos a nivel de usuario. De
esta forma se puede escribir o leer de los archivos en forma directa.
4.2.3) Chorus
La versión 0 era quería modelar aplicaciones distribuidas como colección de actores, en esencia
procesos estructurados, cada uno de los cuales alternaban entre la realización de una transacción
atómica y la ejecución de un paso de comunicación. La versión 1 se centró en la investigación de
multiprocesador. Fue escrita en Pascal compilado en vez de interpretado y se distribuyó en una
docena de universidades y compañías. La versión 2 fue una reescritura fundamental en C. Se diseñó
de modo que las llamadas al sistema fuesen compatibles con UNIX en el nivel del código fuente. La
versión 3 marcó la transición de un sistema de investigación a un producto comercial. Se introdujo
la llamada a procedimientos remotos como el modelo de comunicación usual.
Para que sea un producto viable se aumentó la capacidad de emulación de UNIX, de modo que los
programas en UNIX se ejecutaran sin compilarse de nuevo.
Está estructurado en capas. En la parte inferior está el micronúcleo que proporciona la mínima
administración de los nombres, procesos, hilos, memoria y comunicación. Se tiene acceso a estos
servicios mediante llamadas al micronúcleo. Los procesos de las capas superiores proporcionan el
resto del sistema operativo.
Por arriba de micronúcleo pero operando también en el modo núcleo están los procesos del núcelo.
Estos se cargan y eliminan de manera dinámica durante la ejecución del sistema y proporcionan una
forma de extender la funcionalidad del micronúcleo sin que aumente de manera permanente su
tamaño y complejidad.
4.2.4) DCE
El ambiente ofrecido por DCE consta de un número grande de herramientas y servicios, más de una
infraestructura para que éstos operen. Las herramientas y servicios han sido elegidos de modo que
funcionen juntos de manera integrada y faciliten el desarrollo de aplicaciones distribuidas. Por
ejemplo, DCE proporciona un mecanismo para sincronizar los relojes de máquinas diferentes y
obtener el concepto global de tiempo.
DCE se ejecuta en muchos tipos distintos de computadoras, sistemas operativos y redes. De esta
forma los desarrolladores de aplicaciones producen con facilidad software portable en varias
plataformas, amortizando los costos de desarrollo e incrementando el tamaño del mercado
potencial.
DCE soporta cuatro servicios principales a los que tienen acceso los clientes: los servicios de
tiempo, directorios, seguridad y archivos. El servicio de directorios guarda los nombres y
posiciones de todos tipos de recursos y permite que los clientes los busquen. El servicio de
seguridad permite que los clientes y servidores se autentiquen entre si y realicen una RPC
autentificada. El sistema de archivos proporciona un espacio de nombres para todos los archivos del
sistema.
Conclusiones
Después de la elaboración del presente trabajo sobre los sistemas operativos centralizados y
distribuidos se ha llegado a las siguientes conclusiones:
La diferencia entre estos dos tipos de sistemas operativos está en base a los recursos que
maneja cada uno. Los sistemas operativos centralizados utilizan los recursos de una sóla
computadora, mientras que los sistemas operativos distribuidos gestionan los recursos de
múltiples computadoras.
Los sistemas operativos centralizados aparecieron primero y los distribuidos están unos
escalones adelante en la evolución de los sistemas operativos. Hay mucha experiencia en los
sistemas centralizados pero en los distribuidos hay aún temas que requieren más
investigación.
Los sistemas operativos que usamos normalmente en nuestras casas o en la universidad son
centralizados, con capacidad para conectarse en red, pues en estos ambientes sólo nos
interesa usar la máquina que ocupamos, pero en otros lugares, ya sea empresas u otras
universidades puede interesarles tener las computadoras bajo un sistema distribuido y
proporcionar por ejemplo un uso transparente de una gran capacidad de disco o capacidad de
procesamiento.
El verdadero paralelismo se alcanza con los sistemas operativos distribuidos, pues tienen la
característica de poder ejecutar varios procesos en diferentes nodos al mismo tiempo, con lo
que se mejora el performance del sistema en general. Con un sistema con un sólo procesador
el paralelismo era falso, ya que la técnica de la multiprogramación brinda sólo la ilusión de
que varios procesos se ejecutan a la vez, claro que también se puede lograr paralelismo con
los nuevos procesadores de varios núcleo.
Mientras que el objetivo del sistema operativo centralizado radica en llevar una buena
gestión de los recursos con los que cuenta la máquina, el objetivo del sistema distribuido es
crear una transparencia para el usuario, de forma que vea al conjunto de computadoras como
una sóla y no se de cuenta donde esta el límite entre su máquina y cualquier otro nodo.
Los sistemas distribuidos tienen varias ventajas frente a los centralizados como la economía,
la velocidad, la confiabilidad, la flexibilidad, la comunicación y el crecimiento por
incrementos.
Bibliografía
Cabello, Díaz y Martínez. (1997). Sistemas Operativos, Teoría y Práctica. Madrid: Díaz de
Santos.
Flynn, Ida y Mclver, Ann. (2001). Sistemas Operativos (3a ed.). México: Thomson.