¡Ayúdame a resolver algunos problemas informáticos! ! ! ¡Dale altas calificaciones!
Un circuito integrado es un circuito compuesto por muchos transistores, resistencias y condensadores integrados sobre una pieza de material semiconductor. Los circuitos integrados se pueden dividir en circuitos integrados de pequeña, mediana, gran y muy gran escala según el grado de integración. Los circuitos integrados de pequeña escala, los circuitos integrados de mediana escala, los circuitos integrados de gran escala y los circuitos integrados de muy gran escala se refieren a circuitos que integran más de 65.438.000 transistores y otros componentes en una pieza de material semiconductor.
Date un paseo
ENIAC fue el primer ordenador electrónico que realmente funcionó, pero no era un ordenador moderno. ENIAC puede completar muchos cálculos básicos, como cuatro operaciones aritméticas, cubo, seno, cos, etc. Sin embargo, su cálculo requiere la participación de muchas personas, y los técnicos necesitan conectar y desconectar muchos cables antes de cada cálculo, lo cual es muy problemático.
En 1946, el matemático estadounidense von Neumann vio la importancia de la investigación informática e inmediatamente se dedicó a esta labor. Propuso el principio básico de las computadoras modernas: el principio de control de programas almacenados (que se analiza en detalle a continuación). La gente también llama computadoras construidas utilizando este principio. Basados en el principio de control de programas almacenados, en 1949 y 1952 se pusieron en funcionamiento los nuevos ordenadores EDSAC (Calculadora automática de almacenamiento con retardo electrónico) y EDVAC (Computador automático electrónico de variables discretas, Davach), respectivamente. EDSAC fue la primera computadora con programas almacenados del mundo y es el prototipo y modelo de todas las computadoras modernas. EDVAC fue la primera computadora con programa almacenado que se estudió y en esta máquina se utilizaron 10.000 transistores. Pero por algunas razones, EDVAC no se completó hasta 1952.
En 1952, IBM desarrolló el IBM701, el primer ordenador comercial de éxito del mundo. Con el desarrollo del uso militar y civil, algunas empresas de los países industrializados han invertido en el campo de la investigación y el desarrollo informáticos, lo que puede considerarse como el comienzo de la industria de la información. En aquella época, la gente desconocía por completo los posibles usos y desarrollos de las computadoras. Cuando IBM comenzó a desarrollar computadoras, creía que "el mundo sólo necesitaba cinco computadoras".
Aunque las computadoras son de naturaleza universal, el hardware de la computadora solo proporciona la base material para resolver diversos problemas informáticos. Para aplicar la computadora a la práctica específica de resolver cualquier problema, el usuario debe escribir el programa o software correspondiente. Las primeras computadoras eran muy difíciles de usar en este sentido, ya que requerían que la gente escribiera programas en forma de código binario que no se ajustaba a los hábitos de la gente, lo que consumía mucho tiempo y era propenso a errores. Esta situación limita en gran medida la aplicación generalizada de las computadoras.
A principios de la década de 1950, los pioneros en el campo de la informática comenzaron a darse cuenta de la importancia de este problema. En 1954, un equipo dirigido por John Balks de IBM desarrolló FORTRAN, el primer lenguaje de programación de alto nivel que se tomó en serio y luego se utilizó ampliamente (y todavía se utiliza hoy). El nacimiento del lenguaje FORTRAN permite a las personas describir el proceso de cálculo en una forma simbólica más habitual, lo que mejora en gran medida la eficiencia del desarrollo de programas y hace que más personas estén dispuestas a dedicarse al desarrollo de aplicaciones informáticas. El lenguaje FORTRAN promovió la nueva máquina 704 de IBM en el mundo, convirtiéndose en la computadora de mayor éxito en ese momento y empujando a IBM a una posición de liderazgo en la industria informática. Esto muestra la importancia del software.
Con el desarrollo de las aplicaciones informáticas, constantemente se desarrollan muchos tipos nuevos de computadoras. Las computadoras se vuelven cada vez más potentes y rápidas. Al mismo tiempo, la investigación sobre la teoría de la informática y la investigación y el desarrollo de la tecnología informática también han logrado resultados fructíferos. La gente comenzó a estudiar más a fondo las características esenciales del proceso informático, las reglas de programación y la estructura de hardware y software del sistema informático. Se han desarrollado varios lenguajes de programación nuevos, como Algol60, COBOL y LISP. La informática científica militar y civil sigue siendo las principales áreas de aplicación informática, y las computadoras también están comenzando a surgir en el campo del procesamiento de datos comerciales. También han surgido algunos nuevos campos de investigación y aplicación, como la inteligencia artificial, los gráficos por ordenador y el procesamiento de imágenes.
Desarrollo constante
En 1965, IBM lanzó la serie de ordenadores 360, abriendo una nueva etapa en la historia del desarrollo de los ordenadores como mercancía. El software básico, como los sistemas operativos y los sistemas de compilación de lenguajes de programación de alto nivel, había comenzado a tomar forma en este momento, delineando el marco básico de los sistemas informáticos de esa época. 360 Computer utiliza tecnología de circuitos integrados semiconductores y propone por primera vez el concepto de computadoras en serie. Los diferentes tipos de máquinas son compatibles entre sí en el nivel de instrucción del programa y están equipadas con un software relativamente completo. Las computadoras de la serie 360 y las posteriores 370 fueron un gran éxito. A partir de la década de 1970, algunas empresas de Estados Unidos y Japón comenzaron a producir grandes computadoras compatibles con las máquinas IBM, rompiendo el monopolio de IBM y promoviendo la competencia de precios y el progreso tecnológico en la industria informática.
Por otro lado, un grupo de empresas representadas por DEC (Data Equipment Corporation) comenzaron a desarrollar ordenadores pequeños, de bajo coste y altas prestaciones, denominados colectivamente minicomputadores. Este tipo de computadora se utiliza principalmente en departamentos de educación, departamentos de investigación científica y departamentos empresariales en general, y se usa ampliamente en diversos cálculos y procesamiento de datos científicos y tecnológicos. Poco a poco se están desarrollando otros tipos de ordenadores. Los más importantes son los superordenadores desarrollados para resolver problemas informáticos científicos y de ingeniería a gran escala (problemas civiles o militares). Este tipo de computadora suele estar equipada con múltiples componentes de procesamiento de datos (unidad central de procesamiento, CPU) que pueden funcionar al mismo tiempo, mejorando así en gran medida la potencia de procesamiento de la computadora. Otro tipo común de computadora se llama estación de trabajo, generalmente utilizada por personas en empresas o departamentos de investigación científica, y se usa principalmente en campos especializados como el procesamiento de gráficos e imágenes, el diseño asistido por computadora y el desarrollo de software.
A finales de la década de 1960, con el desarrollo de la tecnología de semiconductores, el número de componentes electrónicos que podían fabricarse en un chip de circuito integrado había superado el orden de 1.000, lo que hacía posible construir una computadora sencilla en uno. chip. En 1971 nació el primer chip microprocesador de Intel, el 4004. Fue la primera computadora construida sobre un chip (en realidad, la parte más básica de una computadora, la CPU), lo que marcó la llegada de una nueva etapa en el desarrollo informático. Apple Computer se fundó en 1976. La computadora APPLE II que lanzó en 1977 fue la primera microcomputadora de mayor éxito. Este tipo de computadora tiene un rendimiento excelente y un precio bajo, y solo equivale a un electrodoméstico de alta gama. Esta situación hizo posible que por primera vez las computadoras ingresaran a pequeñas empresas, tiendas, escuelas y hogares comunes y se convirtieran en artículos de primera necesidad para las personas. Desde entonces, el papel de las computadoras en la sociedad ha cambiado fundamentalmente. Comenzó a surgir de la torre de marfil de la investigación científica y su aplicación en grandes empresas, y gradualmente evolucionó hasta convertirse en un instrumento de uso común entre la gente común.
Otro avance importante durante este período fue la tecnología de gráficos y la tecnología de interfaz gráfica de usuario. Desde el nacimiento de las computadoras, las computadoras siempre han aparecido frente a los usuarios con personajes y rostros monótonos. Este formulario de comando y visualización de información es un método de interacción humano-computadora complejo e intuitivo. Si los profesionales pueden tolerarlo, será difícil para el público aceptarlo y utilizarlo. Para poder enfrentarse a la gente corriente, los ordenadores necesitan una nueva forma de expresión. A finales de la década de 1970, el Centro de Investigación de Polo Alto (PARC) de Xerox desarrolló una tecnología de interfaz gráfica de usuario basada en botones de menú de ventana y control del mouse, que permitía realizar operaciones informáticas de una forma intuitiva y fácil de entender, allanando el camino para Se hicieron preparativos técnicos para el desarrollo vigoroso de las computadoras. Apple desarrolló una nueva computadora personal Macintosh (1984) que imitaba completamente la tecnología PARC y adoptaba una interfaz gráfica de usuario completa, lo que fue un gran éxito. Este evento, junto con la computadora PC/XT lanzada por IBM en 1983, inició la tendencia en auge de las microcomputadoras.
A mediados de la década de 1970 también se inició otra investigación de gran alcance, es decir, la investigación sobre la tecnología de redes informáticas. Las primeras computadoras funcionaban de forma aislada. Mucha gente se reúne alrededor de una computadora, la usa para completar el trabajo a través de varios dispositivos terminales y usa la información almacenada en la computadora. Cuando las personas quieren pasar datos o programas de una computadora a otra, generalmente se requiere movimiento físico: mover la cinta (o disco) que almacena el programa de datos desde un dispositivo externo de una computadora a otra computadora en el dispositivo externo. Es fácil pensar que lo que hay que transmitir en este proceso es en realidad información.
¿Por qué no se puede transmitir información mediante señales eléctricas? ¿Por qué no se pueden conectar dos computadoras mediante un circuito electrónico a través del cual se pueda transferir información entre computadoras? Por supuesto, debido a que lo que se debe transmitir aquí son señales digitales, se necesitan algunos equipos de hardware especiales y el software correspondiente para garantizar una transmisión confiable y una recepción correcta. Simplemente conectar dos computadoras no es muy difícil. Siguiendo este camino, uno ve más posibilidades. Se trata de un vasto campo que espera ser recuperado: ¿por qué no conectar algunos ordenadores más? ¿No se pueden conectar entre sí ordenadores que están muy separados?
Haciendo grandes avances
Desde finales de la década de 1980, el desarrollo informático ha entrado en un período de rápido desarrollo, incluso de desarrollo loco. Hay muchos factores que impulsan este rápido desarrollo. Estos incluyen:
Los avances tecnológicos han llevado a rápidas mejoras en el rendimiento de las computadoras, mientras que el precio de las computadoras ha bajado significativamente. Existe una ley muy famosa en el campo de la informática llamada "Ley de Moore", que fue propuesta por el estadounidense G. Moore en 1965. Según esta regla, el rendimiento de un componente central de computadora (CPU) del mismo precio se duplicará en aproximadamente 18 meses. Esta tendencia de desarrollo ha continuado durante más de 30 años. A mediados de la década de 1960 fue cuando nació IBM 360. En ese momento, el precio general de las computadoras era del orden de varios millones de dólares y el rendimiento oscilaba entre 100.000 y 1 millón de instrucciones por segundo. Las microcomputadoras comunes de hoy pueden ejecutar cientos de millones de instrucciones por segundo, cuestan menos de una milésima parte del precio de las computadoras en ese momento y tienen aproximadamente mil veces el rendimiento de las computadoras en ese momento. En otras palabras, en este corto período de tiempo, la rentabilidad de las computadoras ha aumentado más de un millón de veces. Este progreso proviene de la innovación continua de la teoría, los métodos y la tecnología de diseño de CPU, así como del rápido progreso de la tecnología de fabricación de circuitos integrados. Este asombroso ritmo de desarrollo no muestra signos de desaceleración. Al mismo tiempo, la capacidad de los sistemas de almacenamiento informático también ha aumentado rápidamente y la potencia de procesamiento ha disminuido rápidamente. En los últimos 30 años, el precio por unidad de capacidad de memoria y almacenamiento externo ha caído al mismo ritmo que el de las computadoras. Hoy en día, la capacidad de almacenamiento interno y externo de las microcomputadoras comunes es cientos de veces mayor que la de computadoras grandes como IBM360. Fue este desarrollo en el rendimiento y el precio de las computadoras lo que llevó a las pequeñas tiendas e incluso a individuos y familias a poder permitirse computadoras de alto rendimiento.
Los profesionales de la informática han desarrollado una interfaz gráfica hombre-computadora fácil de usar y han desarrollado una gran cantidad de sistemas de aplicaciones que pueden ayudar a la gente común a resolver problemas prácticos. Estos dos acontecimientos son de gran importancia. A medida que aumenta la disponibilidad y utilidad de las computadoras, más personas pueden aceptarlas y están dispuestas a utilizarlas. La expansión de usuarios y el auge del mercado de ventas promueven aún más que la industria informática desarrolle diversos sistemas de aplicaciones para la gente común. La aparición de muchos sistemas de aplicaciones exitosos ha impulsado a su vez que más personas se unan a las filas de usuarios de computadoras.
El desarrollo de las redes informáticas. Con el aumento de las computadoras, existe una necesidad cada vez mayor de compartir diversos recursos de información entre diferentes computadoras. Esto requiere que varias computadoras estén conectadas entre sí con regularidad y poder utilizar convenientemente diversos recursos de información proporcionados por otras computadoras, incluido el almacenamiento. en sí, las capacidades de almacenamiento de información y las capacidades de procesamiento de información de la computadora. En los primeros días del desarrollo de las redes informáticas, se establecieron muchas pequeñas redes locales, así como redes de larga distancia dedicadas a algunas industrias o departamentos. El rápido desarrollo de Internet desde la década de 1980 ha permitido a la gente ver verdaderamente el enorme poder y el infinito potencial de aplicación de las redes informáticas.
La ola de electrónica e informatización en diversos campos está aumentando. El desarrollo de aplicaciones informáticas ha pasado por muchas etapas. Desde el principio, se utilizó principalmente para el procesamiento interno de datos de agencias gubernamentales y departamentos industriales y comerciales, y posteriormente cuenta con una variedad de amplios sistemas computarizados de servicio al usuario. Ejemplos de éxitos iniciales en estas áreas incluyen los sistemas de reserva de billetes de avión y los sistemas de atención al cliente de los bancos. Las empresas modernas de hoy han sido completamente informatizadas desde adentro hacia afuera: desde el análisis de la demanda social y de los usuarios, el diseño y desarrollo de productos, las pruebas de simulación, la gestión de la producción, la adquisición y el almacenamiento de materias primas, hasta las ventas del producto final y el servicio al cliente, así como la recopilación de información diversa sobre oferta y marketing No existe vínculo en el análisis estadístico sin computadoras. Se puede decir que un aspecto importante de las empresas modernas es que las computadoras están equipadas con dientes y pueden desempeñar plenamente el papel de las computadoras en todos los aspectos de las operaciones empresariales.
En resumen, la fuerza impulsora externa más importante para el rápido desarrollo de las computadoras y sus aplicaciones es la demanda social, mientras que la fuerza impulsora interna es el desarrollo de la teoría, la tecnología y la industria del software y hardware informático. Se empujan unos a otros.
lt2 gtNo pasará mucho tiempo antes de que sea detectado.
lt3 gt Wan, Man, Lan
Las principales topologías actuales de lt4 gt incluyen topología de bus, topología de estrella, topología de anillo y su combinación.
Topología de bus lt5 gt: En la topología de bus, las estaciones de trabajo y los servidores están conectados mediante un cable largo. Los cables conectan las computadoras en la red. Pero la ubicación del servidor no es específica.
Topología en estrella: como su nombre indica, esta topología organiza físicamente las estaciones de trabajo y los servidores en forma de estrella.
Topología en anillo: En este diseño, los datos se transmiten en anillo a través de cables en anillo.
Características del modo "Grupo de trabajo" de lt6 gt
[1] Todas las computadoras en un grupo de trabajo tienen una relación de igualdad y no hay distinción entre maestro y esclavo.
[2] La gestión de recursos y cuentas en modo grupo de trabajo está descentralizada. Los administradores de cada computadora pueden administrar completamente los recursos y las cuentas en su propia computadora.
[3] "Humano y máquina" no están separados. Los usuarios solo pueden iniciar sesión en la computadora en la que se creó la cuenta.
[4] Por lo general, no es necesario instalar Windows 20000 Server; se puede configurar utilizando Windows 2000 Professional, Windows NT Workstation 4.0 y Windows 95/98. En 1995/98 no existía ninguna base de datos de seguridad local.
[5] Los recursos están dispersos y el acceso mutuo a los recursos se puede lograr de las siguientes maneras:
Utilice la cuenta de Invitado para acceder, es decir, cancele el atributo "deshabilitado". de la cuenta.
Cree cuentas para los usuarios que usan recursos en la computadora de destino (recurso) y solicite a los usuarios su cuenta y contraseña cuando inicien sesión en la computadora de recursos o se conecten al recurso de destino.
lt7 gt Conjunto de ordenadores autónomos interconectados con el fin de compartir recursos.
Las siete capas de lt8 gtOSI son: 7 capas de aplicación; 6 capas de sesión; 4 capas de transporte; 2 capas de enlace de datos;
En los inicios de la red informática, cada fabricante de ordenadores tenía su propio concepto de arquitectura de red, y eran incompatibles entre sí. Con este fin, la Organización Internacional de Normalización (ISO) estableció un subcomité en 1979 para estudiar la Arquitectura de Interconexión de Sistemas Abiertos (OSI). La palabra "abierto" significa que siempre que siga los estándares OSI, un sistema se puede conectar a cualquier sistema en el mundo que siga los estándares OSI. Este subcomité propuso la Interconexión de Sistemas Abiertos, o Modelo de Referencia OSI, que define un marco estándar para conectar computadoras heterogéneas.
El modelo de referencia OSI se divide en siete capas, a saber, capa física, capa de enlace de datos, capa de red, capa de transporte, capa de sesión, capa de presentación y capa de aplicación.
Capa física (capa física)
Sabemos que transmitir información requiere de algunos medios físicos, como el par trenzado y el cable coaxial, pero el medio físico específico no se encuentra entre las 7 capas de OSI Dentro. Algunos consideran el medio físico como la Capa 0, siendo la tarea de la capa física proporcionar las conexiones físicas a las capas superiores, así como sus características mecánicas, eléctricas, funcionales y de proceso. Por ejemplo, el tipo de cables y conectores utilizados, el voltaje al que se transmite la señal, etc. En esta capa, los datos no están organizados y solo se procesan como un flujo de bits sin procesar o voltaje, en bits.
Capa de enlace de datos (Capa de enlace de datos)
La capa de enlace de datos es responsable de la transmisión sin errores de tramas de datos a través de la línea entre dos nodos adyacentes. Cada cuadro incluye una cierta cantidad de datos y cierta información de control necesaria. Al igual que la capa física, la capa de enlace de datos es responsable de establecer, mantener y liberar conexiones de enlace de datos. Al transmitir datos, si el punto de recepción detecta un error en los datos transmitidos, notifica al remitente que retransmita la trama.
Capa de Red (Capa de Red)
Puede haber muchos enlaces de datos y muchas subredes de comunicación entre dos computadoras que se comunican en una red informática. La tarea de la capa de red es seleccionar nodos de enrutamiento y conmutación apropiados entre redes para garantizar la transmisión oportuna de datos. La capa de red ensambla las tramas proporcionadas por la capa de enlace de datos en paquetes de datos. Los paquetes de datos se encapsulan con un encabezado de capa de red que contiene información de dirección lógica: la dirección de red del sitio de origen y la dirección del sitio de destino.
Capa de transporte (capa de transporte)
La tarea de esta capa es maximizar el uso de los recursos de la red de acuerdo con las características de la subred de comunicación y proporcionar dos sistemas finales de una manera confiable y manera económica La función de establecer, mantener y cancelar conexiones de transmisión entre las capas de sesión (es decir, la estación de origen y la estación de destino), y es responsable de la transmisión confiable de datos. En este nivel, la unidad de transmisión de información es el mensaje.
Capa de conversación
Esta capa también puede denominarse capa de conferencia o capa de diálogo. En el nivel superior por encima de la capa de sesión, las unidades de transmisión de datos ya no reciben nombres individuales, sino que se denominan colectivamente mensajes. La capa de sesión no participa en transmisiones específicas, pero proporciona un mecanismo para establecer y mantener la comunicación entre aplicaciones, incluida la autenticación de acceso y la gestión de sesiones. Si el servidor autentica el inicio de sesión del usuario, esto lo hace la capa de sesión.
Capa de presentación (capa de presentación)
Esta capa resuelve principalmente el problema de la representación gramatical de la información promocional. Convierte los datos a intercambiar de una sintaxis abstracta adecuada para el usuario a una sintaxis de transmisión adecuada para su uso en el sistema OSI. Es decir, proporcionar servicios de datos de transformación y representación formateada. La capa de presentación se encarga de la compresión, descompresión, cifrado y descifrado de datos.
Capa de aplicación (Capa de aplicación)
La capa de aplicación determina la naturaleza de la comunicación entre procesos para satisfacer las necesidades del usuario y proporciona aplicaciones de red y de usuario.
Lo anterior explica brevemente el modelo de referencia OSI del sistema de 7 capas. Por conveniencia, a menudo dividimos las 7 capas anteriores en nivel bajo y nivel alto. La capa inferior es 1 ~ 4, que está orientada a la comunicación, y la capa superior es 5 ~ 7, que está orientada al procesamiento de información.
La interconexión de sistemas abiertos (OSS) permite que aplicaciones de todo el mundo intercambien información de forma abierta (en lugar de cerrada). El documento oficial actual del modelo de referencia básico de interconexión de sistemas abiertos es el estándar internacional ISO7498, también conocido como OSI/RM, generalmente conocido como OSI. El estándar nacional correspondiente es GB9387.
Para comprender mejor el modelo de referencia OSI y estudiar más a fondo los distintos niveles de OSI en el futuro, primero explicaremos algunos conceptos confusos y luego explicaremos los conceptos básicos más importantes en ISO7498.
En primer lugar, hemos discutido el tema de la arquitectura anteriormente. Ya sabemos que la arquitectura es abstracta y la implementación es concreta. En términos generales, "sistema" se refiere a un conjunto de objetos u objetos que realmente se operan, pero en la expresión "sistema OSI", "sistema" tiene su propio significado especial (es decir, modelo de referencia). En aras de la distinción, utilizamos "sistema real" para referirnos a un todo autónomo en el mundo real que es capaz de procesar o entregar información. Puede ser uno o más ordenadores y sus periféricos, terminales, operadores e información asociados. Si este sistema real cumple con los estándares OSI cuando se comunica con otros sistemas reales, se denomina sistema real abierto. Sin embargo, todas las funciones de un sistema real abierto no están necesariamente relacionadas con la interconexión. Los sistemas en la interconexión del sistema abierto que discutiremos más adelante son solo las partes del sistema real abierto relacionadas con la interconexión, que llamamos sistemas abiertos.
Ahora echemos un vistazo a los conceptos básicos más importantes de ISO7498.
En el proceso de formulación de estándares OSI, el método adoptado es descomponer todo el enorme y complejo problema en varios problemas más pequeños que sean relativamente fáciles de manejar. OSI utiliza un enfoque de refinamiento paso a paso de arriba hacia abajo para abordar estos problemas. Comience con el nivel más alto de abstracción, que tiene pocas restricciones, y luego agregue más y más restricciones. En OSI se utilizan tres niveles de abstracción: arquitectura, definición de servicio y especificación de protocolo, también conocida como especificación. La arquitectura OSI es también el modelo de referencia OSI y es el nivel más alto de abstracción entre los estándares desarrollados por OSI. En lenguajes más formales, un esquema equivale a un objeto o una clase de objetos, y una red concreta equivale a una instancia de un objeto.
El modelo de referencia OSI describe los tipos de objetos utilizados en sistemas abiertos, las relaciones entre ellos y algunas restricciones generales entre estos tipos de objetos y estas relaciones.
Un nivel de abstracción inferior al modelo de referencia OSI es la definición del servicio OSI. Las definiciones de servicios definen en detalle los servicios proporcionados por cada capa. El servicio de una determinada capa es una capacidad de esa capa y de algunas de sus capas. Proporcionados a capas superiores a través de interfaces, los servicios proporcionados por cada capa no tienen nada que ver con cómo se implementan estos servicios. Además, varios servicios también definen interfaces abstractas entre capas, así como primitivas de servicio para cada capa para la interacción entre capas. Pero esto no tiene nada que ver con cómo se implementa esta interfaz.
La abstracción de nivel más bajo en el estándar OSI es la especificación del protocolo OSI. Las especificaciones del protocolo en cada capa definen con precisión qué tipo de información de control se debe enviar y qué tipo de proceso se debe utilizar para interpretar la información de control. . Las especificaciones del acuerdo tienen las restricciones más estrictas.
Por último, debemos saber que CCITT e ISO son dos organizaciones internacionales que desempeñan un papel muy importante en la formulación de estándares de redes informáticas. Muchas cuestiones se decidieron mediante consultas entre ellos. Históricamente, las áreas de trabajo del CCITT y del TC97 de la ISO eran muy diferentes. El CCITT inicialmente consideró la formulación de algunas normas desde la perspectiva de las comunicaciones, mientras que el TC97 se centró en el procesamiento de la información. Sin embargo, con el desarrollo de la ciencia y la tecnología, los límites entre la comunicación y el procesamiento de la información se han vuelto cada vez más borrosos, por lo que la comunicación y el procesamiento de la información se han convertido en cuestiones de interés común para el CCITT y el TC97. La recomendación X.200 del CCITT se refiere a la interconexión de sistemas abiertos y es básicamente la misma que la ISO7498 mencionada anteriormente.
lt9 gt lo anterior
lt10 >windows 2000 /XP /ME/98
servidor windows 2000
servidor windows 2003 p>
p>
Windows 2008 Server
Linux Unix
lt11 gt; las redes peer-to-peer son generalmente más pequeñas, dentro de 10 unidades, y las redes de servidores son generalmente más grande. La diferencia entre ellos es que todas las redes de pares son iguales, mientras que las redes de servidores y los servidores están sobrecargados.
Eso es todo. Continúe cuando tenga tiempo.