Las redes de computadoras suelen clasificarse como redes de área local (LAN, Local Area Network), redes de área metropolitana (MAN, Metropolitan Area Network) o redes de área extensa (WAN, Wide Area Network). Normalmente, una LAN consta de una colección de computadoras situadas en un mismo edificio o en un complejo de edificios.
Otro método de clasificación de las redes se fija en si la operación interna de la red está basada en diseños que son de dominio público o en innovaciones que están controladas y son propiedad de una entidad concreta, como por ejemplo una persona o una corporación. Una red del primer tipo se dice que es una red abierta; una red del segundo tipo se denomina red cerrada o, en ocasiones, red propietaria. Los diseños de red abierta pueden circular libremente y a menudo su popularidad crece hasta el punto de que terminan prevaleciendo sobre los enfoques propietarios, cuyas aplicaciones están restringidas por los acuerdos de licencia y las condiciones fijadas en los correspondientes contratos.
Internet es un sistema abierto. En particular, la comunicación a través de Internet está gobernada por un conjunto abierto de estándares conocido con el nombre de conjunto de protocolos TCP/IP. Cualquier persona es libre de utilizar esos estándares sin pagar licencias ni firmar ningún tipo de acuerdo.
Otra forma de clasificar las redes se basa en la topología de la red, donde el término topología hace referencia al patrón con el que las máquinas están conectadas. Dos de las topologías más populares son las de bus, en la que todas las máquinas están conectadas a una línea común de comunicaciones denominada bus y la topología estrella, en la que una máquina sirve como punto central al que todas las demás se conectan.
Hoy día la configuración estrella es popular en las redes inalámbricas, en las que la comunicación se lleva a cabo por medio de emisiones de radio y en los que la máquina central, denominada punto de acceso (AP, Access Point), sirve como punto focal en torno al cual se coordina toda la comunicación.
La diferencia entre una red en bus y otra en estrella no siempre resulta obvia examinando la disposición física de los equipos. La distinción radica en si las máquinas de la red se ven a sí mismas comunicándose directamente entre ellas a través del bus común, o indirectamente a través de una máquina central intermedia.
En ocasiones, las redes en bus se crean tendiendo enlaces se conectan a un dispositivo denominado concentrador (hub). Lo que hace es reemitir cualquier señal que recibe, quizá con algo de amplificación.
Dos topologías de red populares
Para que una red funcione de forma fiable es importante establecer reglas a las que se ajusten todas las actividades, tales reglas se denominan protocolos.
En una red en bus basada en los estándares Ethernet, el derecho de transmitir mensajes está controlado por el protocolo CSMA/CD (Carrier Sense Multiple Access with Collision Detection). Este protocolo dicta que todos los mensajes sean difundidos a todas las máquinas del bus. Cada máquina monitoriza todos los mensajes, pero solo se queda con aquellos que están dirigidos a ella.
CSMA/CD no es compatible con las redes inalámbricas en estrella, en la que todas las máquinas se comunican a través de un punto de acceso (AP) central. La razón es que una máquina puede no ser capaz de detectar que sus transmisiones están colisionando con las de otra.
Comunicación a través de una red en bus
La máquina puede no escuchar la la otra porque su propia señal se superpone a la de la otra máquina. Otra causa podría ser que las señales de las distintas máquinas estén bloqueadas unas con respecto a otras debido a los objetos o a la distancia existente, aun cuando otras máquinas puedan comunicarse con el AP central (problema de terminal oculto).
El problema del terminal oculto
El resultado es que las redes inalámbricas adoptan la política de tratar de evitar las colisiones en lugar de tratar de detectarlas. Ese tipo de políticas se denominan CSMA/CA (Carrier Sense Múltiple Access with Collision Avoidance), muchas de las cuales están es estandarizados por IEEE dentro de los protocolos definidos en la norma IEEE 802.11 y a los que comúnmente se les llama WiFi.
Este protocolo no resuelve el problema del terminal oculto. Después de todo, cualquier protocolo basado en distinguir entre un canal silencioso y otro ocupado requiere que cada estación individual sea capaz de escuchar a todas las demás. Para solucionar este problema algunas redes WiFi requieren que cada máquina envíe un mensaje de "solicitud" corto al punto de acceso y espera hasta que el punto de acceso confirme dicha solicitud antes de transmitir el mensaje completo. Si el punto de acceso está ocupado porque está comunicándose con un terminal oculto, ignorará la solicitud y la máquina solicitante sabrá que tiene que esperar. En caso contrario, el punto de acceso confirmará la solicitud y la máquina sabrá que puede transmitir sin ningún problema. Observe que todas las máquinas de red podrán escuchar las confirmaciones enviadas desde el punto de acceso y, por tanto, tendrán una idea correcta de si el punto de acceso está ocupado en un momento determinado aún cuando ellas mismas no puedan escuchar las transmisiones que están teniendo lugar.
En ocasiones, es necesario conectar redes existentes para formar un sistema de comunicaciones más amplio. Esto se puede hacer conectando las redes para formar una versión de mayor tamaño del mismo "tipo" de red.
En el caso de redes en bus basadas en los protocolos Ethernet, a menudo es posible conectar los buses para formar un único bus de gran longitud. Esto se lleva a cabo por medio de diferentes dispositivos.
El repetidor no es otra cosa que un dispositivo que simplemente pasa las señales de un lado a otro entre los dos buses originales sin considerar el significado de las señales.
Un puente, al igual que el repetidor permite conectar dos buses, pero el puente no pasa necesariamente todos los mensajes a través de la conexión. Examina la dirección de destino que acompaña a cada mensaje y reenvía un mensaje a través de la conexión solo cuando está destinado a una computadora situada al otro lado. De este modo dos máquinas que residan en el mismo lado de un puente pueden intercambiar mensajes sin interferir en las comunicaciones que están teniendo lugar al otro lado. Un puente permite conseguir un sistema más eficiente que un repetidor.
Un conmutador es básicamente un puente con múltiples conexiones, lo que permite conectar varios buses en lugar de solo dos. De ese modo un conmutador permite construir una red compuesta por varios buses que se extienden a partir del conmutador como los radios de una rueda.
Construcción de una red en bus de gran tamaño a partir de oras más pequeñas
Red de redes, lo que se conoce como una interred, en la que las redes originales mantienen su individualidad y continúan funcionando como redes autónomas.
La conexión entre redes para formar una interred se gestiona mediante una serie de dispositivos conocidos como encaminadores (router), que son computadoras de uso especial utilizadas para el reenvío de mensajes, estos proporcionan enlaces entre redes, mientras permiten a cada una de esas redes mantener sus características internas distintivas.
La razón de que a los encaminadores se les llame así es que su propósito consiste en reenviar los mensajes a las direcciones apropiadas. Este proceso de reenvio se basa en un sistema de direccionamiento global de la interred, en el que a todos los dispositivos de la interred se les asigna direcciones distintivas. Una máquina que quiera enviar un mensaje a otra máquina situada en una red distante asociará al mensaje la dirección del destino dentro de la interred y dirigirá dicho mensaje hacia si encaminador local. A partir de ahí, el mensaje será reenviado a la dirección apropiada. Para esta tarea de reenvío, cada encaminador mantiene una tabla de reenvío que contiene todo el conocimiento que el encaminador posee acerca de la dirección en la que hay que enviar los mensajes, dependiendo de cuña se a su dirección de destino.
El "punto en el que una red se conecta a una interred se suele denominar pasarela (gateway), porque sirve como lugar de paso entre la red y el mundo exterior.
Encaminadores que conectan dos redes WiFi y una red Ethernet para formar una interred
Las diversas actividades que se ejecutan en las distintas computadoras de una red deben a menudo comunicarse entre sí para coordinar sus acciones y realizar las tareas que tienen asignadas. Dicha comunicación entre procesos se denomina comunicación interprocesos.
Un convenio bastante popular que se se utiliza para la comunicación interprocesos es el modelo cliente/servidor. Este modelo define los papeles básicos que desempeñan los procesos bien como cliente, que realiza solicitudes a otros procesos, o bien como servidor, que satisface las solicitudes realizadas por otros clientes.
Otro modelo es el P2P (peer-to-peer). Este modelo implica que existen procesos que proporcionan servicio a otros y reciben servicio también de ellos, esto implica usualmente procesos que se ejecutan de manera temporal.
Una de las razones por las que el modelo P2P está sustituyendo al modelo cliente/servidor para la compartición de archivos es que dicho modelo distribuye la tarea de dar servicio entre muchos terminales iguales en lugar de concentrarla en un único servidor. El término peer-to-peer hace referencia a un sistema mediante el que dos sistemas de se comunican a través de una red (o interred). No es una propiedad de la red (o de la interred).
El modelo cliente/servidor comparado con el modelo P2P
Un sistema distribuido consta de unidades software que se ejecutan como procesos independientes en diferentes computadoras.
Hoy día, son varios los tipos de sistemas de computación distribuidos de uso común. La computación en cluster describe un sistema distribuido en el que múltiples computadoras independientes trabajan estrechamente de manera conjunta para proporcionar potencia de computación o servicios comparables a los de una máquina de mucho mayor tamaño. Estos sistemas se utilizan para proporcionar una alta disponibilidad y un equilibrado de carga, porque la carga de trabajo puede desplazarse automáticamente desde los miembros del cluster que tengan demasiadas tareas que llevar a cabo a otros miembros que puedan estar mucho más descargados.
El término computación en retícula hace referencia a sistemas distribuidos que están acoplados de forma más débil que los clusters, pero que siguen funcionando de manera conjunta para llevar a cabo tareas de gran envergadura.
La computación en nube, en la que una serie de enormes conjuntos de computadoras compartidas en la red pueden asignarse para ser utilizados por los clientes según sea necesario es la tendencia más reciente en el campo de los sistemas distribuidos.