1.-CONCEPTOS Y CARACTERÍSTICAS DE LOS S.O DE REDES Y SISTEMAS OPERATIVOS CENTRALIZADOS DEFINICION DE SISTEMA OPERATIVO DE RED

December 8, 2017 | Autor: H. Lopez HERNANDEZ | Categoría: N/A
Share Embed


Descripción

1.1.-CONCEPTOS Y CARACTERÍSTICAS DE LOS S.O DE REDES Y SISTEMAS OPERATIVOS CENTRALIZADOS
DEFINICION DE SISTEMA OPERATIVO DE RED 

Un sistema operativo de red (Network Operating System) es un componente software de una computadora que tiene como objetivo coordinar y manejar las actividades de los recursos del ordenador en una red de equipos. Consiste en un software que posibilita la comunicación de un sistema informático con otros equipos en el ámbito de una red. Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo personal se puede añadir al propio sistema operativo del equipo o integrarse con él. Netware de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde el software de red del equipo cliente se incorpora en el sistema operativo del equipo. El equipo personal necesita ambos sistema operativos para gestionar Conjuntamente las funciones de red y las funciones individuales.

Características de los Sistemas Operativos de Red

™ Gestión centralizada de recursos y equipos de la red se realiza, por un servidor con S.O. en red. 
™ Aparece la figura del administrador de red, que gestiona la infraestructura de la red (no presente en grupos de trabajo).
™ Conecta todos los equipos y recursos de la red.
™ Coordina las funciones de los periféricos y recursos.
™ Proporciona seguridad controlando el acceso a los datos y recursos.
™ Optimiza la utilización de los recursos.
DEFINICIÓN DE SISTEMA OPERATIVO CENTALIZADO 

se trata de de aquel que utiliza los recursos de una sola computadora, es decir, su memoria, CPU,disco y periféricos.Respecto al hardware podemos decir que se suele tratar de un computador caro y de gran potencia,con terminales alfanuméricos directamente conectados. Suele tratarse de una computadora de tipo desktop, en las cuales es común encontrar un monitor grande con un teclado y un mouse, además de un case para albergar la unidad de procesamiento y los demás componentes.
Características de los Sistemas Operativos de Centralizado
Gestión de procesos

Respecto al manejo de procesos podemos cubrir 3 cosas: la comunicación entre procesos, la sincronización y la planificación.Para ejecutar un proceso, se le asigna memoria y se ejecuta sobre el (normalmente) único procesador del sistema. Es más simple que en un sistema distribuido pues siempre se va a elegir el procesador local, así que el tema pasa más por buscar el funcionamiento óptimo del procesador que se posea y en buscar en qué procesador ejecutar un proceso para aprovechar las posibilidades de cómputo.


Gestión de memoria

El manejo de memoria tiene que ver con la asignación de memoria, el mapeo lógico y físico, la memoria virtual y los mecanismos de protección. En el sistema centralizado se maneja sólo la memoria con la que cuenta la computadora en la que está instalado el sistema

Gestión de dispositivos

Sobre el manejo de dispositivos podemos tratar los driver de los dispositivos, el buffering y el spooling. Para que sea un sistema centralizado la gestión de dispositivos debe encargarse sólo de los dispositivos que le pertenecen a una sola computadora.

Gestión de archivos

Para el manejo de archivos hay que tener en cuenta el acceso a archivos, la compartición de archivos, el control de concurrencia y la replicación de datos. Es la parte del sistema operativo centralizado que se encarga de proporcionar a los usuarios y aplicaciones servicios de para el uso,acceso y control de accesos, tanto de archivos como a directorios



https://www.google.com.mx/webhp?sourceid=chrome


1.2CONSEPTOS Y CARACTERISTICAS DE LOS SISTEMAS OPERATIVOS DISTRIBUIDAS
 Permiten distribuir trabajos, tareas o procesos, entre un conjunto de procesadores. Puede ser que este conjunto de procesadores esté en un equipo o en diferentes, en este caso es trasparente para el usuario. Existen dos esquemas básicos de éstos. Un sistema fuertemente acoplado es a es aquel que comparte la memoria y un reloj global, cuyos tiempos de acceso son similares para todos los procesadores. En un sistema débilmente acoplado los procesadores no comparten ni memoria ni reloj, ya que cada uno cuenta con su memoria local.

Los sistemas distribuidos deben de ser muy confiables, ya que si un componente del sistema se compone otro componente debe de ser capaz de reemplazarlo.


Entre los diferentes Sistemas Operativos distribuidos que existen tenemos los siguientes: Sprite, Solaris-MC, Mach, Chorus, Spring, Amoeba, Taos, etc.


Aspectos de los Sistemas Operativos distribuidos:
· Colección de sistemas autónomos capaces de comunicación y cooperación mediante interconexiones hardware y software .
· Gobierna operación de un S.C. y proporciona abstracción de máquina virtual a los usuarios.
· Objetivo clave es la transparencia.
· Generalmente proporcionan medios para la compartición global de recursos.
· Servicios añadidos: denominación global, sistemas de archivos distribuidos, facilidades para distribución de cálculos (a través de comunicación de procesos internodos, llamadas aprocedimientos remotos, etc.).


Caracteristicas de Sistemas Distribuidos

Hasta aquí nos hemos dedicado a hacer un repaso del hardware sobre el que puede construirse un sistema distribuido y del tipo de software que da al usuario del mismo una vista o apariencia más o menos integrada. En el resto del capítulo vamos a detenernos en los aspectos que hay que considerar en la construcción de un sistema para que pueda ser entendido como realmente distribuido. Estos aspectos son la transparencia, la flexibilidad, la fiabilidad, las prestaciones y la escalabilidad.

Trasparencia

Se dice que un sistema distribuido es trasparente cuando es visto tanto por el usuario como por el programador como un sistema convencional de tiempo compartido. La trasparencia total es difícil de lograr. Parcialmente, el concepto de transparencia puede ser aplicado a varios aspectos de un sistema distribuido.

La transparecia a la ubicación consiste en que los nombres de los recursos no estén ligados a las máquinas concretas. Por ejemplo, en un sistema que sea transparente a la localidad, no se permiten en una llamada al sistema open nombres como maquina1/home/pipo/agenda. La transparencia a la migración es un concepto un tanto más elaborado. Consiste en que los recursos, si bien su nombre no depende de su localización, cuando esta cambia, el nombre del recurso cambia. Consideremos un sistema con dos servidores de ficheros. Los usuarios ven el directorio raíz del primer servidor como el directorio /libros y el segundo como /articulos. Supongamos que en el servidor segundo tenemos el directorio actaInf93, que los usuarios ven como /artículos/actaInf93. El administrador del sistema puede considerar que los artículos del directorio actaInf93, que han sido compilados y editados en una publicación única, deben ser considerados como un libro, de modo que son migrados al otro servidor en el directorio actaInf93. Ahora, el usuario no ve el directorio /articulos/actaInf93 y sí percibe que ha aparecido el directorio /libros/actaInf93. Este cambio en la ubicación física de un directorio ocasiona que el nombre del directorio cambie de nombre. Se puede decir que este sistema de ficheros no es transparente a la migración.

Para aumentar la seguridad de los sistemas, en ocasiones se replican ciertos recursos. La transparencia a la replicación consiste en que el nombre de los recursos debe ser independientes de la réplica concreta. En el ejemplo anterior, el directorio /actaInf93 puede residir en los dos servidores para mayor seguiridad. Sin embargo cada réplica tendría un nombre asociado, bien /artículos/actaInf93, bien /libros/actaInf93. Un sistema de ficheros transparente a la replicación sería aquel en el cual varios servidores dispuestos en un anillo lógico mantuviesen la misma jerarquía de directorios, pero los ficheros no se encuentran en todas las máquinas. El sistema decide en qué máquinas replicar un fichero. Cuando se produce un acceso a un fichero por parte de un proceso, la petición se dirige al primer servidor. Si no está el fichero, la solicitud se redirije al siguiente, etc. El primer servidor que mantenga el fichero atenderá la petición. Lo importante es que el nombre del fichero es independiente de si el fichero está replicado o no, cuántas veces y en qué máquinas.

Otro aspecto de la transparencia es la denominada transparencia a la concurrencia. En ocasiones, en un sistema de tiempo compartido dos procesos acceden al mismo registro de un fichero. El que dicha posibilidad exista no debe influir en la forma que es accedido el fichero en el proceso de usuario. Este sistema de acceso debiera se transparente a la concurrencia.

Sin duda alguna, la transparencia más difícil de alcanzar es la transparencia al paralelismo. Cuando se dispone de más de una UCP, los problemas se pueden descomponer en procesos, cada uno de ellos ejecutando en una UCP y comunicándose a través de mensajes. Esta aproximación exige del programador que conozca de cúantas UCP dispone su sistema y conozca que su programa admite una descomposición en actividades que pueden ser ejecutadas en paralelo. Sería ideal que el compilador del programa y el sistema operativo llevasen a cabo dicha descomposición. Desgraciadamente, el estado actual de los conocimientos en nos sitúa aún muy lejos de lograr la transparencia al paralelismo.

Flexibilidad

Este aspecto se refiere a la forma en que debe ser construido el sistema operativo. Conviven dos escuelas de pensamiento que son las del kernel monolítico y las del sistema operativo basado en microkernel. La primera sostiene que los servicios del sistema deben residir en el sistema operativo y la segunda que es preciso extraer todos los servicios posibles fuera del núcleo del sistema operativo y disponerlos en procesos de usuario, logrando un mayor estructura e independencia en los servicios, que pueden residir en máquinas diferentes. Hoy en día el kernel monolítico domina el mundo de los sistemas operativos, pero parece que el futuro se impondrá la filosofía microkernel, debido a su mayor flexibilidad. Para obtener un servicio, un proceso de usuario envía un mensaje al servidor adecuado. El kernel sólo se ocupa de realizar el paso del mensaje y es el proceso de usuario quien realiza el trabajo cuado recibe el mensaje. Es la facilidad para añadir, suprimir y modificar los servicios los que que da la flexibilidad al sistema microkernel. Por ejemplo, puede fácilmente disponerse de dos sistemas de ficheros, UNIX, donde los discos mantienen la asignación de los ficheros en i-nodos y MS-DOS, donde los discos mantienen la FAT. Con un kernel monolítico, el sistema de ficheros es el que es y no puede modificarse. La única ventaja de los kernel monolíticos sobre los microkernels es su mayor velocidad debido a la ausencia de tráfico de mensajes. Sin embargo, en los sistemas operativos distribuidos existen otros factores a considerar además del tráfico de mensajes que minimizan el impacto de estos en las prestaciones del sistema global, de modo que en un futuro previsible se impondrán los sistemas microkernel.

Fiabilidad

Una de las motivaciones originales para tratar de construir sistemas distribuidos fue el aumento de la fiabilidad del sistema. En un sistema con cien UCP's el fallo de uno de ellas no tendrá consecuencias graves, por que su trabajo será realizado por las otras. En un sistema en el que el sistema de ficheros se reparte en cuatro servidores, cada uno de ellos con una probabilidad de que en un instante dado sea inoperativo de 0.05, la probabilidad de que el sistema de ficheros completo no sea operativo es de 0.054 = 0.000006. No obstante, esta es sólo parte de la verdad. Una cita muy famosa de Leslie Lamport define un sistema distribuido como aquel en el que nunca se puede hacer nada porque siempre necesita de un servicio que presta una máquina que uno nunca sabe donde está que se ha estropeado. Así, el ejemplo anterior puede interpretarse del siguiente modo. Ya que la probabilidad de que uno de los servidores esté disponible es del 0.95, la probabilidad de que un proceso que necesite acceder a los cuatro servidores pueda ejecutarse es de 0.954 = 0.84.

La fiablilidad tiene varios aspectos. Uno es la disponibilidad, que es la fracción de tiempo en que el sistema es operativo. La disponibilidad aumenta cuando no es preciso que muchos componentes críticos del sistema necesiten estar operativos simultáneamente, pero desde luego la clave para garantizar la disponibilidad es la replicación de los componentes, sean software o hardware. Si uno falla, otro estará disponible. La redundancia, no obstante, acarrea otros problemas. Entre ellos está la consistencia de los datos. A mayor número de copias, mayor es la probabilidad de que se produzcan inconsistencias, especialmente si al número de escrituras es muy alto.

Otro aspecto de la fiablidad es el de la seguridad de los datos, que deben ser protegidos contra accesos no autorizados que los corrompan o eliminen. La problema de seguridad crece en los sistemas distribuidos debido al aumento del número de mensajes que circulan por las líneas de comunicación, que pueden ser interceptados e impostados por máquinas ajenas al sistema. Supongamos un sistema distribuido formado por las máquinas A, B, C y D. Si la máquina F tiene acceso a las líneas de comunicación, F puede enviar un mensaje a A solicitándola un servicio como puede ser el acceso a determinado registro de datos confidencial. En el campo del mensaje que determina la máquina fuente siempre puede insertar el nombre de la máquina B. La máquina A no tiene medio de saber que el mensaje ha sido impostado y contesta a la máquina B. Este mensaje también es interceptado o leído por la máquina F.

Prestaciones
Por muy brillantemente que hayan sido resueltos los objetivos de transparencia y fiabilidad de un sistema operativo distribuido, este no tendrá éxito si es lento. La velocidad de los sistemas distribuidos viene comprometida por el tráfico de mensajes en las líneas de comunicación. En una red local, el envío de un mensaje puede llevar alrededor de un milisegundo. La mayoría de este tiempo se gasta en la ejecución de los protocolos de comunicacióne en ambos extremos de la línea. El aumento de velocidad pasa necesariamente por minimizar el número de mensajes intercambiados. Por una parte, el descomponer un problema en actividades que pueden ser ejecutadas en paralelo y asignarlas a distintos procesadores es la mejor manera de resolver el problema de forma eficiente. Por otra parte, a mayor número de procesadores, mayor es el número de mensajes intercambiados. Aparece así el concepto de la granularidad de los cálculos. El problema de sumar cuatro enteros puede ser descompuesto en dos subproblemas. El primero es sumar los dos primeros números y el segundo el sumar los dos últimos. Desde luego no merece la pena el solicitar un servicio remoto para sumar dos enteros por que el costo de las comunicaciones es incomparablemente mayor que el ahorro de tiempo conseguido en su ejecución simultánea. En general, se puede decir que un sistema operativo distribuido dará pocas prestaciones en problemas de granularidad fina, es decir aquellos en que muestran muchos cálculos pequeños que se comunican intensamente. Si son apropiados en la resolución de problemas de granularidad gruesa, aquellos que exiben unos pocos bloques de cálculo independientes y pocas necesidades de comunicación.

Escalabilidad
A pesar de los progresos de los últimos años, con sistemas concretos y desarrollados, el diseño de sistemas operativos distribuidos es un campo aún poco conocido e investigado. Los actuales sistemas abarcan como máximo unos cientos de máquinas. A medida que la informática se introduce en las actividades cotidianas y el ordenador se introduce en los hogares, comienzan a perfilarse sistemas de miles de millones de máquinas. La pregunta que se plantea es la siguiente. ¿Los métodos y algoritmos utilizados en los sistemas operativos distribuidos actuales son apropiados, es decir, escalan adecuadamente cuando el número de componentes aumenta en órdenes de magnitud?

Aunque se sabe aún muy poco acerca de estos enormes sistemas futuros, una cosa parece estar clara: hay que evitar componentes, estructuras de datos -tablas, etc- y algoritmos que operen de forma centralizada. En cuanto a los componentes o máquinas, es posible tener un único servidor que atienda a cuatro cientos millones de hispanohablantes, pero más vale repartir su carga de trabajo entre otros servidores a fin de paliar los esfectos de una interrupción del servicio. En cuanto a las tablas, se puede mantener los números de teléfono de cuatrocientos millones de personas en una sóla máquina. Supongamos un registro de 50 caracteres. El listado total requiere un almacenamiento de 50 * 4 * 108 = 20 * 109 = 20 Gbytes, que puede soportar incluso una única unidad de disco. No obstante, concentrar las peticiones en está máquina saturaría no sólo su UCP sino las líneas de comununicación que salen y entran en el sistema.

Centralizar algoritmos tampoco es una buena idea. En un sistema distribuido grande, una cantidad enorme de mensajes debe ser encaminada a lo largo de muchas líneas y máquinas. La forma más eficiente de hacer esto es recabar periódicamente toda la información de la carga de todas las líneas y máquinas en una máquina central. Con la información obtenida esta máquina calculará todas las rutas óptimas empleando un algoritmo de teoría de teoría de grafos. Sus resultados serán después extendidos al resto de las máquinas del sistema. Una máquina única prestando servicios a demasiados clientes hemos visto que es inadecuada. En general, algoritmos que exijan el requerir información a todos los componentes, realizar cálculos con la información recabada y después distribuir los resultados deben ser evitados. Sólo deben usarse algoritmos descentralizados, que tienen las siguientes características.

· 1. Ninguna máquina tiene información completa acerca de todo el sistema.
· 2. Las máquinas toman decisiones basadas sólamente en información local.
· 3. El fallo de una de las máquinas no malogra el algoritmo.
· 4. No existe un reloj común.

Este último aspecto quizás se entienda peor. En una red local, las máquinas se pueden sincronizan en un intervalo del milisegundo, pero sincronizar máquinas a nivel nacional, por ejemplo, es más complicado.

http://marcosventuraosorio261v.blogspot.mx/2009/03/sistemas-operativos-de-red-y-sistemas.html


1.3 SISTEMAS OPERATIVOS DISTRIBUIDAS:VENTAJAS Y DESVENTAJAS CONTRA SISTEMAS OPERATIVOS CENTRALIZADOS ,SISTEMAS OPERATIVOS PARA REDES MODELO CLIENTE SERVIDOR,MODELO DE N CAPAS,CARACTERISTICAS DEL HARDWARE Y CARACTERISTICAS DEL SOFTWARE(HOMOGENEOS Y HETEROGENIOS),DIRECCIONAMIENTO LOGICO Y FISICO.

Ventajas de los sistemas distribuidos con respecto a los centralizados.


Una razón para la tendencia hacia la descentralización es la economía
Herb Grosch formuló la que se llamaría "Ley de Grosch"

El poder de cómputo de una cpu es proporcional al cuadrado de su precio:
Si se paga el doble se obtiene el cuádruple del desempeño.
Fue aplicable en los años setentas y ochentas a la tecnología mainframe.
No es aplicable a la tecnología del microprocesador:
La solución más eficaz en cuanto a costo es limitarse a un gran número de cpu baratos reunidos en un mismo sistema.
Los sistemas distribuidos generalmente tienen en potencia una proporción precio / desempeño mucho mejor que la de un único sistema centralizado.

Ventajas de los Sistemas Distribuidos con Respecto a los de Red

La diferencia entre estos dos tipos de sistemas operativos es que el de red opera sus computadoras independientemente, cada maquina usa sus propios recursos, disco duro, memoria ram, procesador, los archivos tienen su propio directorio en cada una. En cambio los LOS SISTEMAS OPERATIVOS DISTRIBUIDOS usan todos los recursos de todas las computadoras como si fueran una sola, tienen un solo disco duro formado con el de todas, no importa donde este un archivo es la misma dirección para todas. modelo cliente – servidor.

La existencia de los encabezados genera un "costo" adicional de transmisión.
Cada envío de un mensaje genera:
Proceso en media docena de capas.
Preparación y agregado de encabezados en el camino hacia "abajo".
Eliminación y examen de encabezados en el camino hacia "arriba".
Con enlaces del orden de decenas (o centenas) de miles de bits / segundo y cpu poderosas:
La carga de procesamiento de los protocolos no es significativa.
El factor limitante es la capacidad de las líneas.
Ej.: redes de área extendida (WAN).
Con enlaces del orden de millones de bits / segundo y computadoras personales:
La carga de procesamiento de los protocolos sí es frecuentemente significativa.
El factor limitante no es la capacidad de las líneas.
Ej.: redes de área local (LAN).
La mayoría de los sistemas distribuidos basados en LAN no utilizan los protocolos de capas completos, sí utilizan un subconjunto de toda una pila de protocolos.
El "modelo OSI" no dice nada acerca de la forma de estructurar al sistema distribuido.

El "modelo cliente - servidor" tiene como idea fundamental la estructuración del S. O. como:

Un grupo de procesos en cooperación, llamados servidores, que ofrecen servicios a los usuarios.
Un grupo de procesos usuarios llamados clientes.
El "modelo cliente - servidor" se basa en un "protocolo solicitud / respuesta":
Es sencillo y sin conexión.
No es complejo y orientado a la conexión como OSI o TCP / IP.
El cliente envía un mensaje de solicitud al servidor pidiendo cierto servicio.
El servidor:
Ejecuta el requerimiento.
Regresa los datos solicitados o un código de error si no pudo ejecutarlo correctamente.
No se tiene que establecer una conexión sino hasta que ésta se utilice.
La pila del protocolo es más corta y por lo tanto más eficiente.


Modelo n-capas
 
Modelo de desarrollo N-Capas.
Las capas dentro de una arquitectura son un conjunto de servicios especializados que pueden ser accesibles por múltiples clientes y que deben ser fácilmente reutilizables.

Lo que se conoce como arquitectura en capas es en realidad un estilo de programación donde el objetivo principal es separar los diferentes aspectos del desarrollo, tales como las cuestiones de presentación, lógica de negocio, mecanismos de almacenamiento, etc.

Una razón importante por la que surge este concepto, es debido a que en la evolución del desarrollo de software, se ha identificado la necesidad de crear nuevas capas, especializadas en funciones específicas, diferentes a las 3 identificadas previamente. Tal es el caso de la seguridad, el control de excepciones, el transporte de datos entre capas, la generación de trazas de errores, entre otros.

Ventajas 

Desarrollos paralelos (en cada capa)
Aplicaciones más robustas debido al encapsulamiento
Mantenimiento y soporte más sencillo (es más sencillo cambiar un componente que modificar una aplicación monolítica)
Mayor flexibilidad (se pueden añadir nuevos módulos para dotar al sistema de nueva funcionalidad)
Alta escalabilidad. La principal ventaja de una aplicación distribuida bien diseñada es su buen escalado, es decir, que puede manejar muchas peticiones con el mismo rendimiento simplemente añadiendo más hardware. El crecimiento es casi lineal y no es necesario añadir más código para conseguir esta escalabilidad.

Desventajas 

Pone más carga en la red, debido a una mayor cantidad de tráfico de la red.
Es mucho más difícil programar y probar el software que en arquitectura de dos niveles porque tienen que comunicarse más dispositivos para terminar la transacción de un usuario.

Características Hardware Sistemas Distribuidos

Conceptos de Hardware
Todos los sistemas distribuidos constan de varias cpu, organizadas de diversas formas, especialmente respecto de:
o La forma de interconectarlas entre sí.
o Los esquemas de comunicación utilizados.
Existen diversos esquemas de clasificación para los sistemas de cómputos con varias cpu:
o Uno de los mas conocidos es la "Taxonomía de Flynn":
o Considera como características esenciales el número de flujo de instrucciones y el número de flujos de datos.
o La clasificación incluye equipos SISD, SIMD, MISD y MIMD.
SISD (Single Instruction Single Data: un flujo de instrucciones y un flujo de datos):
o Poseen un único procesador.
SIMD (Single Instruction Multiple Data: un flujo de instrucciones y varios flujos de datos):
o Se refiere a ordenar procesadores con una unidad de instrucción que:
o Busca una instrucción.
o Instruye a varias unidades de datos para que la lleven a cabo en paralelo, cada una con sus propios datos.
Son útiles para los cómputos que repiten los mismos cálculos en varios conjuntos de datos.
MISD (Multiple Instruction Single Data: un flujo de varias instrucciones y un solo flujo de datos):
No se presenta en la práctica.
MIMD (Multiple Instruction Multiple Data: un grupo de computadoras independientes, cada una con su propio contador del programa, programa y datos):
Todos los sistemas distribuidos son de este tipo.
Un avance sobre la clasificación de Flynn incluye la división de las computadoras MIMD en dos grupos:
Multiprocesadores: poseen memoria compartida:
o Los distintos procesadores comparten el mismo espacio de direcciones virtuales.
Multicomputadoras: no poseen memoria compartida:
o Ej.: grupo de PC conectadas mediante una red.
Cada una de las categorías indicadas se puede clasificar según la arquitectura de la red de interconexión en:
Esquema de bus:
o Existe una sola red, bus, cable u otro medio que conecta todas las máquinas:
Ej.: la televisión por cable.
Esquema con conmutador:
o No existe una sola columna vertebral de conexión:
Hay múltiples conexiones y varios patrones de conexionado.
Los mensajes de mueven a través de los medios de conexión.
Se decide explícitamente la conmutación en cada etapa para dirigir el mensaje a lo largo de uno de los cables de salida.
Ej.: el sistema mundial telefónico público.
Otro aspecto de la clasificación considera el acoplamiento entre los equipos:
Sistemas fuertemente acoplados:
o El retraso al enviar un mensaje de una computadora a otra es corto y la tasa de transmisión es alta.
o Generalmente se los utiliza como sistemas paralelos.
Sistemas débilmente acoplados:
o El retraso de los mensajes entre las máquinas es grande y la tasa de transmisión es baja.
o Generalmente se los utiliza como sistemas distribuidos.
Generalmente los multiprocesadores están más fuertemente acoplados que las multicomputadoras.

Características Software Sistemas Distribuidos

Aunque el hardware es importante, el software lo es más. La imagen que presenta y la forma de pensar de los usuarios de un sistema, queda determinada en gran medida por el software del sistema operativo, no por el hardware.
Se puede distinguir dos tipos de sistemas operativos para los de varios CPU:
Los débilmente acoplados: El software débilmente acoplado permite que las máquinas y los usuarios de un sistema distribuido sean independientes entre sí en lo fundamental, pero que interactúen en cierto grado cuando sea necesario.
 Los fuertemente acoplados: En el software fuertemente acoplado el programa de aplicación y el sistema operativo necesario para soportarlo, están muy acoplados.

Direccionamiento Lógico- Físico Sistemas Distribuidos

Una dirección generada por la CPU se denomina dirección lógica en cambio a la que es percibida por unidad de memoria se denomina dirección física.
Los esquemas de vinculación de direcciones durante la compilación y durante la carga dan pie a un entorno en el que las direcciones lógicas y físicas son las mismas. En cambio, la ejecución del esquema de vinculación de direcciones durante la ejecución produce un entorno en el que las direcciones lógicas y físicas difieren. En este caso la dirección lógica suele llamarse dirección virtual.
Direccionamiento lógico y físico El proceso desde que los datos son incorporados al ordenados hasta que se transmiten al medio se llama encapsulación. Estos datos son formateados, segmentados, identificados con el direccionamiento lógico y físico para finalmente ser enviados al medio. A cada capa del modelo OSI le corresponde una PDU (Unidad de Datos) siguiendo por lo tanto el siguiente orden de encapsulamiento: 
o DATOS
o SEGMENTOS
o PAQUETES
o TRAMAS-BITS 
o CAPA TRANSMITE
o APLICACIÓN DATOS
o PRESENTACIÓN 
o SESIÓN 
o TRANSPORTE SEGMENTOS
o RED PAQUETES
o ENLACE DE DATOS TRAMAS
o FÍSICA BITS
Debido a que posiblemente la cantidad de los datos sean demasiados, la capa de transporte desde de origen, se encarga de segmentarlos para así ser empaquetados debidamente, esta misma capa en el destino se encargara de re ensamblar los datos y colocarlos en forma secuencial, ya que no siempre llegan a su destino en el orden en que han sido segmentados, así mismo acorde al protocolo que se este utilizando habrá corrección de errores. Estos segmentos son empaquetados (paquetes o datagramas) e identificados en la capa de red con la dirección lógica o IP correspondiente al origen y destino. Ocurre lo mismo con la dirección MAC en la capa de enlace de datos formándose las tramas o frames para ser transmitidos a través de alguna interfaz.
https://sites.google.com/a/itdurango.edu.mx/unidad-2/1-3-sistemas-operativos-distribuidos.
1.4 SISTEMAS DISTRIBUIDAS DE ALTO RENDIMIENTO A BAJO COSTO (CLUSTERING)EN SISTEMAS OPERATIVOS DE LIBRE DISTRIBUCION.
Sistemas distribuidos de alto rendimiento a bajo costo (clustering) en sistemas operativos de libre distribución.

Un cluster es un conjunto de ordenadores que están conectados entre sí por medio de una red, para compartir recursos con el objetivo de realizar tareas y funciones como si fuesen un único ordenador (memoria distribuida).

Sirve para cuando queramos realizar tareas que necesiten grandes requerimientos de memoria y CPU y para ahorrarnos horas de trabajo en tareas y operaciones.
 
Tipos de Cluster
Hay 3 tipos de cluster:
High Performance o Alto rendimiento.
High Availability o Alta Disponibilidad.
High Reliability o Alta Confiabilidad.


Alto Rendimiento

El objetivo es mejorar el rendimiento, de tiempo o precisión, para la solución de un problema.
Este tipo suele estar ligado a solucionar los siguientes problemas:
Cálculos matemáticos
Mejora de gráficos
Compilación de programas
Descifrado de códigos
Rendimiento del sistema operativo

Alta disponibilidad

Los clusters de alta disponibilidad están destinados a mejorar los servicios que ofrecen las empresas de cara a los clienrtes de una red, ya sea local o de internet. Fundamentalmente tienen dos características :
Fiabilidad
Disponibilidad

Alta confiabilidad

Con alta confiabilidad se trata de aportar la máxima confianza es un entorno en el cual se necesita saber que el sistema siempre se va a comportar de una forma determinada, como por ejemplo sistemas de respuesta a tiempo real.
Suele ser usado para entornos de tipo empresarial, necesitando un hardware especializado.

Elementos necesarios
Dos o más nodos (ordenadores) compuestos al menos por un microprocesador, una memoia y una interfaz para que se puedan comunicar con la red del cluster.
Hardware apropiado al tipo de cluster que vamos a utilizar.
Tarjeta de red.
Un medio de transmisión entre ellos como por ejemplo RJ-45.
Software de sistema y un software de aplicación.

Software de sistemaPodemos usar distintos sistemas operatios para conseguir el funcionamiento del cluster, como son:
Ubuntu server
Windows Server
OpenMosix
ParallelKnoppix
Pelican

Software de Aplicación

Dependiendo del sistema operativo que vayamos a utilizar necesitaremos unos paquetes o programas:

En el caso de Linux:
HeartBeat: ejecuta los servicios en los nodos.
HeartBeat-Stonith: es una técnica HeartBeat que se encarga de controlar que cuando un servidor esté caído no interfiera en el funcionamiento del cluster.

En el caso del Windows:
A partir de windows 2003 server los servidores ya viene preparado con el software necesario. Para mejorar el rendimiento en windows server 2008 podemos usar Failover Cluster.





https://sites.google.com/a/itdurango.edu.mx/unidad-2/1-4---sistemas-distribuidos-de-alto-rendimiento-a-bajo-costo-clustering-en-sistemas-operativos-de-libre-distribucion

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.