Sei sulla pagina 1di 16

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y


ELÉCTRICA

UNIDAD CULHUACAN

Ingeniería en Computación

Sistemas Operativos

Actividad:

“Resumen capítulo 4”

Montoya Flores Daniel

Hernández Espinosa Juan Manuel

6CM23
Tabla de contenido

OBJETIVO......................................................................................................................................... 3
JUSTIFICACION .............................................................................................................................. 3
DESARROLLO ................................................................................................................................. 3
Versión general ............................................................................................................................... 3
Acerca de las tecnologías multinúcleo .................................................................................... 3
Planificación de trabajos contra planificación de procesos .............................................. 4
Planificador de procesos ............................................................................................................. 4
Estado del trabajo y del proceso ............................................................................................... 5
Bloques de control de proceso y colas.................................................................................... 6
Políticas de planificación de procesos .................................................................................... 7
Algoritmos de planificación de procesos ................................................................................ 8
Primero en llegar, primero en servirse .......................................................................................... 8
Siguiente trabajo más corto primero ........................................................................................... 10
Planificación de prioridad ............................................................................................................ 11
Tiempo más corto restante .......................................................................................................... 12
Round robin .................................................................................................................................. 13
Colas de multinivel ....................................................................................................................... 14
Caso 1: Sin movimientos entre colas ........................................................................................... 14
Caso 2: Movimiento entre colas .................................................................................................. 15
Caso 3: Cuanto de tiempo variable por cola ................................................................................ 15
Caso 4: Envejecimiento ................................................................................................................ 15
CONCLUSION ................................................................................................................................ 16
GLOSARIO ..................................................................................................................................... 16
BIBLIOGRAFIA .............................................................................................................................. 16
OBJETIVO
El siguiente documento describe las características que presentan los sistemas
operativos para la administración de procesos en los sistemas mono y
multiprocesadores.

JUSTIFICACION
Un proceso es un programa en ejecución. Un proceso simple tiene un hilo de
ejecución, por el momento dejemos esta última definición como un concepto, luego
se verá en más detalle el concepto de hilo.

DESARROLLO

Versión general
En un sistema, uno como usuario único y un procesador, de este solo está ocupado
cuando la CPU ejecuta un trabajo. Sin embargo, cuando en el sistema hay muchos
usuarios con muchos trabajos, el procesador debe asignarse a cada trabajo de
manera justa y eficiente, lo que puede ser una tarea complicada.

El procesador, también conocido como CPU, es la parte de la computadora que


realiza los cálculos y ejecuta los programas.

La multiprogramación requiere que el procesador sea asignado a cada trabajo o a


cada proceso durante un periodo y que sea liberado en un momento idóneo. Si el
procesador se libera durante la ejecución de un programa, esto debe hacerse de
modo que pueda reiniciarse más tarde lo más fácilmente posible.

Acerca de las tecnologías multinúcleo


Una CPU de doble núcleo, cuádruple núcleo, u otra CPU multinúcleo tiene más de
un procesador en el chip de la computadora. En general, los microprocesadores
multinúcleo permiten que un dispositivo computacional exhiba una cierta forma del
paralelismo a nivel de (TLP) sin incluir múltiples microprocesadores en paquetes
físicos separados. Esta forma de TLP se conoce a menudo
como multiprocesamiento a nivel de chip CMP.

Multiprocesamiento es un Procesamiento simultáneo con dos o más procesadores


en un computador. Estos procesadores se unen con un canal de alta velocidad y
comparten la carga de trabajo general entre ellos. En caso de que uno falle el otro
se hace cargo. El multiprocesamiento también se efectúa en computadores de
propósitos especiales, como procesadores vectoriales, los cuales proveen
procesamiento simultáneo de conjunto de datos. Aunque los computadores se
construyen con diversas características que se superponen, como ejecutar
instrucciones mientras se ingresan y se sacan datos, el multiprocesamiento se
refiere específicamente a la ejecución de instrucciones simultáneas.

3
Planificación de trabajos contra planificación de procesos
El administrador de procesadores una composición de dos administradores: uno a
cargo de la planificación de trabajos y otro a cargo de la planificación de procesos.
Se denominan planificador de trabajos y planificador de procesos.

La planificación de los trabajos, ensamblar el juguete y vendar la herida estaba


basada en una prioridad de primero en llegar, primero en servirse. Cada trabajo es
iniciado por el planificador de trabajos con base en ciertos criterios. Una vez que se
ha elegido un trabajo para su ejecución, el planificador de procesos determina
cuando debe ejecutarse cada paso, o conjunto de pasos: una decisión que también
está basada en ciertos criterios.

En consecuencia, cada trabajo pasa a través de una jerarquía de administradores.


Puesto que el primero que encuentra es el planificador de trabajos, este también se
denomina planificador de alto nivel. Solo le concierne seleccionar trabajos de una
cola de trabajos de entrada y colocarlos en la cola de procesos, ya sea por lotes o
interactiva, con base en las características de cada trabajo.

Planificador de procesos
Un proceso es un programa en ejecución. Existen 3 estados en los que puede
encontrarse un proceso, estos son: "Listo", "Bloqueado" y "En ejecución". Para el
control de los mismos internamente son almacenados en una lista, cada uno de los
nodos guarda información de un proceso. En esa información se almacena, entre
otros aspectos, el estado en que se encuentra el proceso, el tiempo que el proceso
ha usado el CPU, e información de E/S (entrada/salida). Los sistemas operativos
cuentan con un componente llamado planificador, que se encarga de decidir cuál
de los procesos hará uso del procesador. La toma de esta decisión, así como el
tiempo de ejecución del proceso, estará dada por un algoritmo, denominado
Algoritmo de Planificación.

4
Aunque la duración y frecuencia del ciclo de CPU varían de un programa a otro, hay
algunas tendencias generales que pueden aprovecharse cuando se selecciona un
algoritmo de planificación.

Estado del trabajo y del proceso


A medida que un trabajo se mueve a través del sistema siempre se encuentra en
uno de cinco estados cuando cambia a LISTO a en EJECUCION a ESPERA y
finalmente a TERMINADO. Se denomina estados de trabajo o estados del proceso.
A partir de INICIADO, el trabajo se mueve a LISTO una vez que se encuentra para
su ejecución pero está en espera de la CPU. En algunos sistemas, el trabajo puede
colocarse en el estado LISTO directamente. En EJECUCION, por supuesto,
significa que el trabajo está en procesamiento. En un sistema de procesador único,
este es un “trabajo” o proceso. En ESPERA significa que el trabajo no puede
continuar sino hasta que se asigne un recurso especifico o haya terminado una
operación de E/S. una vez completado, el trabajo está TERMINADO y se devuelve
al usuario. La transición del estado de un trabajo o proceso a otro estado es iniciada
por el planificador de trabajos o el planificador de procesos:
Bloques de control de proceso.

Cada proceso en el sistema está representado por una estructura de datos


denominada bloque de control de proceso (PCB) que realiza la misma función que
el pasaporte de un viajero. El PCB contiene la información básica sobre el trabajo,
incluyendo que es, a donde va, cuanto de su procesamiento se ha completado,
donde está almacenado y cuando ha dedicado a la utilización de recursos.

5
Identificador del proceso

Cada trabajo esta identificado de manera única por la identificación del usuario y un
apuntador que lo conecta con su descriptor (proporcionado por el planificador de
trabajos cuando el trabajo entra por primera vez en el sistema y se cola en
INICIADO).
Situación del proceso

Esto indica el estado actual del trabajo: INICIADI, LISTO, en EJECUCION o en


ESPERA, asi como los recursos responsables de ese estado.
Estado del procesador

Esto contiene toda la información necesaria para indicar el estado actual del trabajo
como:

 Palabra del estado del proceso: Contenido del contador de instrucciones y


del registro cuando el trabajo no estaba en ejecución, sino que estaba en
INICIADO o está LISTO o en ESPERA. Si el proceso está en EJECUCION,
esta información se deja indefinida.
 Contenido de los registros: el contenido de los registros si el trabajo ha sido
interrumpido y está esperando para reanudar el procedimiento.
 Memoria principal: información pertinente, incluyendo la dirección donde está
almacenado el trabajo y, en caso de memoria virtual, la asignación entre
ubicaciones de la memoria virtual y la memoria física.
 Recursos: información sobre todos los recursos asignados a este trabajo.
Cada recurso tiene un campo de identificación que indica su tipo y un campo
que describe los detalles de su asignación, como la dirección del sector en
un disco.
 Prioridad del proceso: Usada por sistemas que usan un algoritmo de
planificación de prioridad para elegir cual trabajo será ejecutando a
continuación.

Bloques de control de proceso y colas


Un bloque de control de proceso de un trabajo se crea cuando el planificador de
trabajos acepta el trabajo y se actualiza a medida que los trabajos avanzan desde
el inicio hasta el final de su ejecución. Las colas usan bloques de control de proceso
para seguir la pista de trabajos de la misma forma en que las autoridades migratorias
usan los pasaportes para seguir la pista de visitantes internacionales.

Los bloques de proceso, no los trabajos, se vinculan para formar colas, como se
muestra en la figura 4.4. Aunque ningún PCB se ha dibujado en detalle, el lector
debe imaginar cada cola como una lista vinculada de bloques de control de proceso.

6
Los PCB para cada trabajo listo están vinculados en la cola LISTO, y todos los PCB
para los trabajos que están entrando al sistema están vinculados en la cola
INICIADO. Los trabajos que están en ESPERA, no obstante, están vinculados en la
cola INICIADO.

Los trabajos que están en ESPERA, no obstante, están vinculados entre sí por
“razones de espera”, de modo que los PCB para los trabajos en esta categoría están
vinculados en varias colas. Es necesario que la administración de las colas se lleve
a cabo de manera ordenada, lo cual es determinado por las políticas y los algoritmos
de planificación de procesos.

Políticas de planificación de procesos


En un entorno multiprogramación suele haber más trabajos a ejecutar de los que
posiblemente podrían ejecutarse al mismo tiempo. Antes que el sistema operativo
pueda planificarlos, necesita resolver tres limitaciones del sistema: 1) hay un
número finito de recursos; 2) algunos recursos, una vez asignados, no puede
compartirse con otro trabajo; 3) algunos recursos requieres la intervención del
operador; es decir, no es posible reasignarlos automáticamente de un trabajo a otro.
¿Qué es una buena política de planificación de procesos? Varios criterios vienen a
la mente, aunque observe en la siguiente lista que algunos se contradicen con otros:

 Maximizar el resultado: ejecutar tantos trabajos como sea posible en una


cantidad de tiempo dada. Esto puede lograrse fácilmente al ejecutar solo
trabajos cortos o al ejecutar trabajos sin interrupciones.
 Minimizar el tiempo de respuesta: Dar pronta respuesta a solicitudes
interactivas. Esto puede hacerse al ejecutar solo trabajos interactivos y hacer
que los trabajos por lotes esperen hasta que termine la carga interactiva.

7
 Minimizar el tiempo de retorno: introducir y sacar rápidamente trabajos del
sistema. Esto puede hacerse al ejecutar primero todos los trabajos por lotes.
 Minimizar el tiempo de espera: Mover todos los trabajos de la cola LISTO lo
más rápido posible. Esto puede hacerse al reducir el número de usuarios
permitidos en el sistema, de modo que la CPU esté disponible de inmediato
siempre que un trabajo entra a la cola LISTO.
 Minimizar la eficiencia de la CPU: Mantener ocupada la CPU 100% del
tiempo. Esto puede hacerse al ejecutar solo trabajos limitados por la CPU.
 Asegurar lo justo para todos los trabajos: Proporcionar a cada uno una
cantidad igual de tiempo de CPU y E/S.
Como puede verse a partir de la lista anterior, si el sistema favorece algún tipo de
usuario, es en detrimento de otro y no utiliza de manera eficiente sus recursos.
Aunque el planificador de trabajos selecciona trabajos a fin de asegurar el equilibrio
de las colas LISTO y de E/S, hay instancias en que un trabajo reclama la CPU
durante largo tiempo antes de emitir una solicitud de E/S. Una estrategia de
planificación que interrumpe el procesamiento de un trabajo y transfiere la CPU a
otro trabajo se denomina política de planificación expropiativas; se usa ampliamente
en entornos de tiempo compartido. La alternativa, por supuesto, es una política de
planificación no expropiativas, que funciona sin interrupciones externas.

Algoritmos de planificación de procesos


El planificador de procesos depende de un algoritmo de planificación de procesos,
basado en una política específica, para asignar la CPU y mover los trabajos a través
del sistema. Los primeros sistemas operativos usaban políticas de planificación no
expropiativas diseñadas para mover trabajos por lotes a través del sistema de la
manera más eficiente posible. La mayor parte de los sistemas modernos, con su
énfasis en uso interactivo y tiempo de respuesta, usan un algoritmo que se ocupa
de las solicitudes inmediatas de usuarios interactivos.

Primero en llegar, primero en servirse


Primero en llegar, primero en servirse (FCFS), es un algoritmo de planificación no
expropiativo que maneja trabajos según su tiempo de llegada, donde se atiende a
los primeros en hacerlo. La implementación de este algoritmo es muy simple porque
usa una cola FIFO. Este algoritmo funciona bien para la mayor parte de los sistemas
por lotes, aunque es inaceptable para sistemas interactivos porque los usuarios
interactivos esperan tiempo de respuesta rápida. En un sistema FCFS estricto no
hay listas en ESPERA, aunque puede haber sistemas donde el control se
intercambia sobre una espera natural y luego el trabajo se reanuda después de la
terminación de la E/S. Los siguientes ejemplos presumen un entorno estrictamente
FCFS. Con la política FCFS es impredecible el tiempo de respuesta; considere los
tres trabajos siguientes:
8
 El trabajo A tiene un ciclo de CPU de 15 milisegundos.
 El trabajo B tiene un ciclo de CPU de 2 milisegundos.
 El trabajo C tiene un ciclo de CPU de 1 milisegundos.

Por cada trabajo, el ciclo de CPU contiene el uso actual de la CPU y las solicitudes
de E/S. es decir, es el tiempo de respuesta total. Al usar un algoritmo FCFS con una
secuencia de llegada de A, B, C, la línea de tiempo (diagrama de Gantt).

Estos datos representan una mejora importante respecto a la primera secuencia de


llegada. Desafortunadamente, estos dos ejemplos ilustran la principal desventaja de
usar el concepto FCFS: los tiempos de respuesta medios varían ampliamente y
raras veces se minimizan. De hecho, cuando en la cola LISTO hay tres trabajos, el
sistema solo tiene una posibilidad en 6 de ejecutar los trabajos en la secuencia más
ventajosa (C, B, A). Con cuatro trabajos, esta cifra cae a 1 de 24 y así
sucesivamente. En un algoritmo FCFS escrito no ocurre ninguna de estas
situaciones. Sin embargo, el tiempo de respuesta es variable. Es por ello que el
algoritmo FCFS es menos atractivo que uno que atiende primero el siguiente trabajo
más corto, como lo hace el próximo algoritmo de planificación, incluso en un entorno
multiprogramación.

9
Siguiente trabajo más corto primero
Siguiente trabajo más corto primero (SJN), es un algoritmo de planificación no
expropiativo que maneja trabajos con base en la longitud de su ciclo de CPU. Es
más fácil implementarlo en entornos por lotes donde el tiempo de CPU estimado
necesario para ejecutar los trabajos lo proporciona de antemano cada usuario al
inicio de cada trabajo. Por ejemplo, hay cuatro trabajos por lotes, todos en la cola
LISTO, para los cuales el ciclo de CPU, o tiempo de ejecución, se calcula como
sigue:
Trabajo: A B C D
Ciclo de CPU: 5 2 6 4

El algoritmo SJN revisa los cuatro trabajos y los planifica para su procesamiento en
este orden: B, D, A, C.

Si observamos, podemos ver el trabajo B termina en su tiempo dado (2), que el


trabajo D termina en su tiempo dado más el tiempo que ha esperado para que B se
ejecute (4 + 2), que el trabajo A termina en su tiempo dado más el tiempo de D más
el tiempo de B (5 + 4 + 2), y que el trabajo C termina en su tiempo dado más los
tiempos previos (6 + 5 + 4 + 2). Así, cuando se calcula el promedio se obtiene:

Como puede verse, el tiempo para el primer trabajo aparece cuatro veces en la
ecuación: una vez por cada trabajo. En forma semejante, el tiempo para el segundo
trabajo aparece tres veces. El tiempo para el tercer trabajo aparece dos veces y el
tiempo para el cuarto trabajo aparece solo una vez.

10
Donde n es el número de trabajos en la cola y t (j = 1, 2, 3,…, n) es la longitud del
ciclo de CPU para cada uno de los trabajos. Sin embargo, el algoritmo SJN es
óptimo solo cuando todos los trabajos están disponibles al mismo tiempo y la CPU
estima que están disponibles y son seguros.

Planificación de prioridad
La planificación de prioridad es un algoritmo no expropiativo y uno de los algoritmos
de planificación más comunes en sistemas por lotes, aun cuando puede
proporcionar un tiempo de respuesta más lento para algunos usuarios. Este
algoritmo otorga tratamiento preferencial a trabajos importantes. Las prioridades
puede asignarlas un administrador del sistema usando características extrínsecas
a los trabajos. Con un algoritmo basado en prioridades, el planificador de trabajos
suele vincular los trabajos a una de varias colas LISTO en vez de a una sola.

Las prioridades también pueden determinarse por el administrador del proceso con
base en las características intrínsecas a los trabajos, como:

 Requerimientos de memoria: A los trabajos que requieren grandes


cantidades de memoria pueden asignarse prioridades menores que a los que
solicitan pequeñas cantidades de memoria, o viceversa.
 Número y tiempo de dispositivos periféricos: A los trabajos que requieren
muchos dispositivos periféricos pueden asignarse prioridades menores que
a los que requieren menos dispositivos.
 Tiempo total de CPU: A los trabajos que tienen un gran ciclo de CPU o un
tiempo de ejecución grande pueden asignarse prioridades menores que a los
que tienen un tiempo de ejecución breve.
 Cantidad de tiempo de permanencia en el sistema: Esta es la cantidad total
de tiempo transcurrido desde que el trabajo fue aceptado para su
procesamiento. Algunos sistemas incrementan la prioridad de los trabajos
que han permanecido en el sistema durante un tiempo inusualmente largo a
fin de apresurar su salida.

11
Tiempo más corto restante
El tiempo más corto restante (SRT) es la versión expropiativa del algoritmo SJN. El
procesador se asigna al trabajo más próximo a completar, pero incluso este trabajo
puede expropiarse si un nuevo trabajo más próximo a completar, pero incluso este
trabajo puede expropiarse si un nuevo trabajo en la cola LISTO tiene un tiempo de
terminación más corto.

Este algoritmo no puede implementarse en un sistema interactivo porque es


necesario conocer de antemano el tiempo de CPU requerido para terminar cada
trabajo. Se usa a menudo en entornos por lotes, cuando es aconsejable otorgar
preferencia a trabajos más cortos, aun cuando SRT implica más sobrecarga de SJN
porque el sistema operativo tiene que controlar a menudo el tiempo de CPU para
todos los trabajos en la cola LISTO y debe realizar cambio de contexto para los
trabajos que se intercambian en el momento de la anticipación.

12
La manera en que se realiza realmente el cambio de contexto depende de la
arquitectura de la CPU; en muchos sistemas hay instrucciones especiales para que
el almacenamiento y la restitución de la información sean rápidos. El cambio está
diseñado para realizarse de manera eficiente pero, no importa cuán rápido sea,
sigue requiriendo valioso tiempo de CPU.

Round robin
Round robin es un algoritmo de planificación de procesos expropiativo que se usa
ampliamente en sistemas interactivos. Es fácil de implementar y no se basa en las
características del trabajo, sino en una rebanada de tiempo predeterminada que se
proporciona a cada trabajo para asegurar que la CPU se comparta de manera
equitativa entre todos los procesos activos y ningún trabajo la monopolice.

La rebanada de tiempo se denomina cuanto de tiempo y su tamaño es crucial para


el rendimiento del sistema. Suele variar desde 100 milisegundos hasta 1 o 2
segundos.

Los trabajos se colocan en la cola LISTO usando un esquema de primero en llegar,


primero en servirse y el planificador de procesos selecciona el primer trabajo desde
frente de la cola, establece el temporizador en el cuanto de tiempo y asigna la CPU
a ese trabajo.

La eficiencia del round robin depende del tamaño del cuanto de tiempo en relación
con el ciclo de CPU promedio. Si el cuanto es demasiado largo; es decir, si es mayor

13
que la mayor parte de los ciclos de CPU, entonces el algoritmo se reduce al
esquema FCFS. Si el cuanto es demasiado pequeño, entonces la cantidad de
procesamiento extra aumenta dramáticamente, como se observa en los tres
ejemplos. El trabajo A tiene un ciclo de CPU de 8 milisegundos. La cantidad de
cambio de contexto aumenta a medida que disminuye el tamaño del cuanto de
tamaño.

Colas de multinivel
Colas de multinivel, estas colas en realidad no constituyen un algoritmo de
planificación separado, sino que funciona de manera conjunta con varios de los
esquemas ya analizados y se encuentran en sistemas con trabajos que pueden
agruparse según una característica común. Ya hemos presentado por lo menos un
tipo de cola de multinivel: la de un sistema basado en prioridades con colas
diferentes para cada nivel de prioridad.

Otro tipo de sistema podrá reunir todos los trabajos limitados por CPU en una cola
y todos los trabajos limitados por E/S en otra. Luego, el planificador de procesos
puede escoger de manera alterna trabajos de cada cola a fin de mantener
equilibrado el sistema.
Las colas de multinivel plantear algunas preguntas interesantes:

 ¿El procesador se asigna a los trabajos en la primera cola hasta que este
vacía antes de moverlo a la cola siguiente o se desplaza de cola en cola
hasta que se ha atendido el último trabajo en la última y después regresa
para servir al primer trabajo en la primera cola, o algo en medio?
 ¿Esto es justo para quienes han ganado, o pagado por, una prioridad más
alta?
 ¿Esto es justo para quienes están en una cola de prioridad baja?
 Si el procesador se asigna a los trabajos en la primera cola y esta nunca se
vacía, ¿Cuándo son atendidos los trabajos en la última cola?
 ¿Pueden los trabajos en la última cola obtener “un ascenso por buen
comportamiento” y terminar moviéndose a mejore colas?

Las respuestas dependen de la política usada por el sistema para atender las colas.
Hay cuatro métodos primarios para el movimiento: no permitir el movimiento entre
colas, mover los trabajos de cola en cola, mover los trabajos de cola en cola y
aumentar los cuantos de tiempo para colas más bajas, y otorgar un tratamiento
especial a los trabajos que han estado en el sistema durante largo tiempo.

Caso 1: Sin movimientos entre colas


Sin movimientos entre colas es una política muy simple que recompensa a quienes
tienen trabajos con prioridad alta. El procesador se asigna de una manera FCFS a

14
los trabajos que están en la cola de prioridad alta y se asigna a los trabajos en colas
de prioridad más baja solo cuando las colas de prioridad alta están vacías.

Caso 2: Movimiento entre colas


Movimiento entre colas es una política que ajusta las prioridades asignadas a cada
trabajo: los trabajos con prioridad alta son tratados como todos los otros una vez
que están en el sistema. Cuando ocurre una interrupción de un cuanto tiempo, el
trabajo es expropiado y movido hacia el extremo de la siguiente cola más baja.

La política es más justa en un sistema en que los trabajos son manejados según
sus características de ciclo de CPU: trabajos limitados por CPU o trabajos limitados
por E/S. Esto supone que un trabajo que excede su cuanto de tiempo está limitado
por CPU y que requiere más asignación de CPU uno que solicita E/S antes que
expire el cuanto tiempo.

Caso 3: Cuanto de tiempo variable por cola


Esta es una variante de la política de movimiento entre colas, y permite un tiempo
de respuesta más rápido de trabajos limitados por CPU.

En este esquema, a cada una de las colas se le proporciona un cuanto de tiempo


del doble de largo que a la cola previa. La cola más alta puede tener un cuanto de
tiempo de 100 milisegundos. Así, la segunda cola más alta puede tener un cuanto
de tiempo de 200 milisegundos, la tercera, uno de 400 milisegundos, etcétera. Si
hay suficientes colas, la más baja puede tener un cuanto tiempo relativamente largo
de 3 segundos o más.

Caso 4: Envejecimiento
El envejecimiento se usa para asegurar que los trabajos en las colas de nivel bajo
terminen por completo su ejecución. El sistema operativo sigue la pista del tiempo
de espera de cada trabajo y cuando un trabajo se vuelve demasiado viejo; es decir,
cuando llega a cierto límite de tiempo, el sistema lo mueve hacia la siguiente cola
más alta, y así sucesivamente hasta que llega la cola superior.

Una política de envejecimiento más drástica es una que mueve el trabajo viejo
directamente desde la cola más baja hasta el final de la cola en la parte superior.
Como es de esperar, aplazamiento indefinido significa que la ejecución de un trabajo
se aplaza durante una cantidad indefinida de tiempo porque es expropiado
repetidamente, de modo que es posible procesar otros trabajos.

15
CONCLUSION
Los procesos pueden ser cooperantes o independientes, en el primer caso se
entiende que los procesos interactúan entre sí y pertenecen a una misma aplicación.
En el caso de procesos independientes en general se debe a que no interactúan y
un proceso no requiere información de otros o bien porque son procesos que
pertenecen a distintos usuarios.

GLOSARIO
Dispositivos de E/S: Componente mecánico que se conecta a la Unidad Central de
Procesamiento a través de las unidades de Entrada y Salida.
E/S: Entrada / Salida.
Hardware: Son todos los componentes físicos que componen un computador.
Interrupciones: Una interrupción es un llamado forzoso a un procedimiento.

Máquina Virtual: Se trata de un tipo de sistemas operativos que presentan una


interface a cada proceso, mostrando una máquina que parece idéntica a la máquina
real subyacente.

Memoria virtual: La idea fundamental detrás de la memoria virtual es que el tamaño


combinado del programa, los datos y la pila de ejecución puede exceder la cantidad
de memoria real disponible para él. El sistema operativo mantiene aquellas partes
del programa que están utilizando en cada momento en la memoria principal y el
resto permanece en el disco. En la medida en que se vayan necesitando nuevas
partes estas se intercambian con las residentes en la memoria principal.

Memoria: Cuando se refiere a ordenadores, la memoria (en general) es cualquier


hardware capaz de almacenar datos para recuperarlos posteriormente. En este
contexto, la memoria en general se refiere específicamente a la RAM.
Multitarea: Un solo usuario ejecutando varias tareas al mismo tiempo en un sistema.
Núcleo: La parte central de un sistema operativo, sobre la cual el resto del sistema
se apoya. En inglés: “kernel”.

BIBLIOGRAFIA
Sistemas Operativos
Ann McHoes, Ida M. Flynn
ISBN-13: 9786074814859
eBook: 9786074817638
592 Páginas | 6ª Edición | © 2011

16

Potrebbero piacerti anche