armado y arquitectura de computadores - ALIPSO.COM: Monografías, resúmenes, biografias y tesis gratis.
Aprende sobre marketing online, desarrollo de sitios web gratis en Youtube
Suscribite para recibir notificaciones de nuevos videos:
Viernes 29 de Marzo de 2024 |
 

armado y arquitectura de computadores

Imprimir Recomendar a un amigo Recordarme el recurso

apunte de armado con algo de arquitectura del interior de un computador

Agregado: 01 de SEPTIEMBRE de 2006 (Por Benjamin Contreras) | Palabras: 13813 | Votar |
3 votos | Promedio: 10
| Sin comentarios | Agregar Comentario
Categoría: Apuntes y Monografías > Derecho >
Material educativo de Alipso relacionado con armado arquitectura computadores
  • Arte y arquitectura gótica.: La edad media, arquitectura civil religiosa, la escultura, las vidrieras, la pintura mural, Luis Dalmau, Jaime Huguet, Jacomart, Bartolomé Bermejo y Fernando Gallego.
  • Góticas, Arte y arquitectura.: Arquitectura, Gótico temprano, Gótico clásico, Escultura.
  • Armado de expediente previsional:

  • Enlaces externos relacionados con armado arquitectura computadores


    Autor: Benjamin Contreras (bgca2005@gmail.com)

    Este apunte fue enviado por su autor en formato DOC (Word). Para poder visualizarlo correctamente (con imágenes, tablas, etc) haga click aquí o aquí si desea abrirla en ventana nueva.

    Arquitectura de un computador


    Componentes de un computador

    a)Tarjeta Madre

    La tarjeta madre es el componente principal de un computador personal. Es el componente que integra a todos los demás. Escoger la correcta puede ser difícil ya que existen miles. Estos son los elementos que se deben considerar:


    Una primera distinción la tenemos en el formato de la placa, es decir, en sus propiedades físicas.
    Dicho parámetro está directamente relacionado con la caja, o sea, la carcasa del ordenador.
    Hay dos grandes estándares: ATX y AT


    • Para ATX: Entre las ventajas de la placa cabe mencionar una mejor disposición de sus componentes, conseguida básicamente girándola 90 grados. Permite que la colocación de la CPU no moleste a las tarjetas de expansión, por largas que sean. Otra ventaja es un sólo conector de alimentación, que además no se puede montar al revés.
    • La memoria está colocada en un lugar más accesible.
    • La CPU está colocada al lado de la F.A. (Fuente de Alimentación) para recibir aire fresco de su ventilador.
    • Los conectores para los dispositivos IDE y disqueteras quedan más cerca, reduciendo la longitud de los cables y estorbando menos la circulación del aire en el interior de la caja.
    • Además de todas estas ventajas dicho estándar nos da la posibilidad de integrar en la placa base dispositivos como la tarjeta de vídeo o la tarjeta de sonido, pero sacando los conectores directamente de la placa, dándonos un diseño más compacto, y sin necesidad de perder ranuras de expansión.
    • Así podemos tener integrados los conectores para teclado y ratón tipo PS/2, serie, paralelo o USB que son habituales en estas placas, pero también para VGA, altavoces, micrófono, etc. sin apenas sacrificar espacio.

    La segunda distinción la haremos por el zócalo de la CPU, así como los tipos de procesador que soporte y la cantidad de ellos. Este es el cerebro del computador. Dependiendo del tipo de procesador y su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos, de los cuales se intentara dar una idea de sus características principales. Tenemos el estándar tipo 7 para Pentium y MMX, el Súper 7 para los procesadores con bus a 100 Mhz, el Slot 1 para el Pentium II y el Celeron, Socket 7 para procesadores Pentium III (con bus a 133 Mhz) y Celeron (con bus a 100Mhz), Socket A para procesadores Athlon Socket 478 para procesadores Pentium 4 (sistema de bus de 400Mhz a 533Mhz). Estos son los más conocidos.











    El Procesador en su forma más simple, un sistema de computadora cuenta con una unidad que ejecuta instrucciones de programas. Esta unidad se comunica con otros subsistemas dentro de la computadora, y a menudo controla su operación. Debido al papel central de tal unidad se conoce como unidad central de procesamiento, o CPU (Central processing unit). Dentro de muchas computadoras, un subsistema como una unidad de entrada, o un dispositivo de almacenamiento masivo, puede incorporar una unidad de procesamiento propia. Tal unidad de procesamiento, aunque es central para su propio subsistema, resulta claro que no es "central" para el sistema de computadora en su conjunto. Sin embargo, los principios del diseño y operación de una CPU son independientes de su posición en un sistema de computadora.

    El siguiente parámetro es el tipo de bus. Hoy en día el auténtico protagonista es el estándar PCI de 32 bits El bus (el que envía la información entre las partes del computador) de casi todos los computadores que vienen hoy en día es PCI y los nuevos estándares: AGP para tarjetas de video y el Universal Serial Bus USB (Bus Serial Universal) para conexión con componentes externos al PC. AGP y PCI son los dos tipos de ranuras compatibles con las tarjetas de hoy en día.

    La siguiente distinción la haremos a partir del chipset que utilicen. Los más populares son los de Intel. Estos están directamente relacionados con los procesadores que soportan También existen placas que usan como chipset el de otros fabricantes con VIA, SiS, UMC o Ali (Acer).

    Otra característica importante es el formato y cantidad de zócalos de memoria que admite. En parte viene determinado por el chipset que utiliza. La más recomendable es la DIMM (bus de 100 y 133 Mhz) en formato SDRAM y como mínimo 3 zócalos, la siguiente es la DDR (bus de 266Mhz, 400Mhz, 433Mhz) como mínimo 2 zócalos, la siguiente es RIMM (bus de 400Mhz, 433Mhz, 800Mhz ) como mínimo 2 zócalos.

    Para poder explicar a fondo las partes de una placa (Tarjeta Madre) tomaremos una genérica a modo de ejemplo, la siguiente imagen nos describe a la perfección la placa


    Esta placa, aunque vista rápidamente podría parecerse a cualquier placa ATX, tiene algunas características que hacen la diferencia.
    La primera y más evidente, el uso del Socket 478 (Socket del procesador). Éste es el conector más moderno para los Intel Pentium 4, tanto para los basados en el "viejo" núcleo de 0,18 micras y 256 KB de caché L2 (modelos hasta 2,0 GHz).
    Como se aprecia en la foto, el tamaño de este zócalo es realmente minúsculo, 35 x 35 mm. (se compara con una moneda de 23 mm. de diámetro.) Sin embargo, los ventiladores y disipadores necesarios para refrigerar un Pentium 4 son enormes, pues a 2.0 GHz el modelo de 0,18 micras disipa ¡más de 75 W!; eso sí, el modelo recientemente presentado de 0,13 micras disipa poco más de 52 W.
    En fin, en todo caso el nuevo zócalo tiene como ventaja adicional un nuevo sistema de sujeción del ventilador basado en "clips", mucho más sencillo que el primer sistema que se planteó para el Socket 423 y no menos seguro. La placa en sí está reforzada con una gruesa chapa metálica en su parte trasera, para aguantar el peso añadido sin problemas.
    Externamente lo más significativo son los conectores, que vienen codificados por colores según la norma PC99 para identificarlos más fácilmente; entre ellos encontramos los habituales, conector de teclado PS/2, conector de ratón PS/2, dos conectores USB, un conector de puerto paralelo estándar /EPP/ECP. Lo siguiente que encontramos es un único conector de puerto serie, al lado de un conector VGA para el monitor y las salidas habituales de una tarjeta de sonido, incluyendo el imprescindible puerto MIDI para joystick. Algunas placas traen un conector RJ45 para Red Integrada

    En cuanto a los otros conectores, nos indican ni más ni menos que la placa trae integradas las controladoras de vídeo y de sonido. Ésta es precisamente la principal característica que define a esta placa y la fuente de todas sus ventajas e inconvenientes.
    Por lo demás, la distribución de los componentes es prácticamente perfecta; pese a sus sólo 19 cm. de ancho, se ha conseguido instalar 6 ranuras PCI, algo muy importante para ampliaciones futuras que la distingue de otras placas con sólo 3 ranuras PCI. Además, las tarjetas de expansión pueden ser tan largas como se quiera, ya que no existe obstáculo alguno en su camino, y el conector eléctrico está situado en una posición inmejorable.
    AGP: Las siglas AGP corresponden a Advanced Graphics Port, o Puerto Avanzado de Gráficos. Se trata de un nuevo sistema para conectar periféricos en la placa base del PC; es decir, es un nuevo bus por el que van datos del microprocesador al periférico.
    Su propio nombre nos define este nuevo bus: Puerto, puesto que se comunica con el micro de manera más íntima que otros buses como PCI (a costa de permitir sólo 1 ranura o slot); Avanzado, como corresponde a una tecnología moderna que pretende superar las limitaciones del PCI; y de Gráficos, ya que ha sido diseñado pensando en ese uso exclusivamente.
    El objetivo a la hora de crear este bus era conseguir una tasa de transferencia de datos micro-tarjeta gráfica superior a la que ofrece el PCI de 32 bits a 33 MHz, 132 MB/s. Esta tasa resulta suficiente para aplicaciones 3D, que deben transmitir varios "megas" de texturas para obtener el máximo realismo.
    Tipos de AGP
    Como muchas tecnologías jóvenes, AGP fue lanzado al mercado en cuanto estuvo preparado, aunque aún no se hubiera afinado del todo. Por ello, existen varios modos de AGP:
    • AGP 1x: modo con bus de 32 bits y a 66 MHz. Su tasa teórica de transferencia máxima es de 264 MB/s. En la actualidad, pocas tarjetas de marca tienen sólo este modo.
    • AGP 2x: modo con bus de 32 bits y a 66 MHz reales, o 133 MHz "virtuales" gracias al doble aprovechamiento de cada señal de reloj (una tecnología utilizada, por ejemplo, en la DDR-SDRAM). Su tasa teórica de transferencia máxima es de 528 MB/s. Es el actualmente usado por las tarjetas de calidad.
    • AGP 4x: nuevo modo que se implantará en un futuro; aproximadamente 1 GB/s.
    Sin duda alguna, el modo 1x es un modo "experimental", sacado al mercado con prisas. Su rendimiento es y será indistinguible del de PCI, así que su tiempo de vida ha terminado ya (excepto como modo para compatibilidad con tarjetas más antiguas).
    Por otro lado, la ranura AGP tiene dos notables mejoras: la primera, un sistema de retención de la tarjeta gráfica: es una mejora barata de implementar pero más que necesaria en muchas ocasiones, sobre todo en equipos que van a ser sometidos a traslados. Este sistema no se incluye siempre.



    La segunda mejora es una simple pegatina recordando que sólo deben conectarse tarjetas gráficas AGP de 1,5 V (generalmente, las AGP 4x modernas). ¿Por qué? Porque si se conecta una tarjeta a 3,3 V, como son muchas de las AGP 2x más antiguas, podríamos freír el chipset (una limitación de su diseño). Se supone que las tarjetas y conectores deben seguir las normas AGP, de manera que sea físicamente imposible insertar la tarjeta en la ranura si el voltaje no es el correcto, pero no hay que fiarse, siempre hay alguna tarjeta mal fabricada (sobre todo si es algo antigua) que podría entrar en la ranura AGP y destrozar nuestra placa base. No viene nada mal un recordatorio de que debemos revisar las especificaciones de la tarjeta, aunque sea tan simple como esta pegatina. "Placa base prevenida vale por dos". No debe minusvalorarse la importancia de este ordenado y limpio diseño; la correcta colocación de los conectores evitará las acostumbradas marañas de cables, favoreciendo la correcta ventilación de los componentes y el acceso a los mismos. Por otra parte, el mínimo ancho de la placa permite instalarla en casi cualquier carcasa del mercado sin problemas, algo que apreciarán los que se hayan encontrado por ejemplo alguna vez con un lector de CD-ROM más largo de lo normal o un disco duro mas grande de lo normal.
    La placa sólo tiene 3 ranuras para memoria SDRAM, ya sea DIMM de 168 pines o DDR de 184 pines. Ah, la memoria debe ser PC133 en el caso de DIMM y PC266 en e caso de las DDR, además la memoria es compartida con la memoria de video, ya que la placa incluye un Chip de video integrado.
    La distribución de los componentes es, en general, excelente, especialmente en el caso de los conectores para discos duros o CDROM (conector IDE primario y secundario) y disquetera (conector puerto disquetera) y el conector eléctrico principal (conector fuente de alimentación ATX)










    Ah, precisamente en los conectores eléctricos se ha mejorado el diseño, de forma que ahora el ATX principal es el más exterior, ideal si vamos a intentar usar únicamente éste (si nuestra fuente no es compatible con la norma ATX 2.03, pero sí de unos 300 W y de buena calidad). Y el de 12 V está algo más arriba (más cerca de la fuente de alimentación, por tanto) y ya no tiene ningún condensador demasiado cerca.
    Por otro lado, no hay ranuras ISA, pero sí una CNR. Eliminar las ISA no es una decisión tan drástica, sin duda están obsoletas (aunque puede que a alguien le resulte un cierto problema, si tiene hardware muy específico); y en cuanto a la CNR (heredera de la poco exitosa AMR), puede servirle para utilizar la controladora de red integrada.

    b) Bus de: Datos, Direcciones y Control

    • Bus de datos: Es un bus bidireccional (información en los dos sentidos) por medio del cual se intercambian los datos entre el microprocesador y las diferentes unidades de entrada, salida y entrada / salida.
    • Bus de direcciones: Es un bus de una sola vía (desde el microprocesador hacia los periféricos) por medio del cual se selecciona o direcciona a cual elemento se le envía la información o desde cual se recibe.
    • Bus de control: es un bus combinado, es decir, algunas líneas son unidireccionales y otras bidireccionales. Por medio de estas líneas se activan algunos procedimientos como lectura, escritura, etc.

    Unidad Central o "CPU"

    La Unidad Central de Procesos o CPU se subdivide no en dos sino en tres importantes partes:

    • La Memoria, para conservar la información indispensable para operar,
    • Una Unidad Aritmética, para efectuar las operaciones, y
    • Una Unidad de Control que asegura el correcto flujo de información desde la entrada hacia la memoria, desde ahí hacia la unidad aritmética, luego de nuevo hacia la memoria y, por fin, hacia la salida.

    La Unidad Aritmética y la Unidad de Control conforman el "procesador".


    Unidad de control

    La Unidad de Control encargada de coordinar todos los componentes y los flujos de datos- es muy compleja en computadores grandes. Sin embargo su estructura en computadores pequeños es una buena ilustración de sus sistemas básicos. Se presenta como en el gráfico adjunto y se compone de:

    • La memoria tampón o "buffer de almacenamiento", donde se mantienen temporalmente datos que fluyen desde o hacia la memoria principal (RAM);
    • El registro de próxima dirección, que contiene la dirección de la siguiente instrucción a ser ejecutada;
    • El registro de dirección, que contiene la dirección de la celda de memoria (RAM) en la que se está leyendo o escribiendo;
    • El registro de instrucciones, que contiene el código de la instrucción en curso de ejecución;
    • El decodificador, dispositivo que interpreta la instrucción y dirige los flujos de información de manera que la instrucción sea llevada a cabo adecuadamente.

    En máquinas más complejas se agrega además un controlador de entradas y salidas, que administra todo el flujo hacia y desde los periféricos.


    Unidad aritmética

    La Unidad Aritmética es la que realiza las operaciones tanto aritméticas como lógicas que se encomienda al computador, dirigida por la Unidad de Control.

    La Unidad Aritmética comprende:

    • Uno o varios registros de memoria llamados "acumuladores", donde se guardan los resultados parciales de las operaciones y el resultado final hasta que sea transmitido al Buffer de la Unidad de Control;
    • Circuitos de suma/resta, multiplicación/división, comparación (mayor/menor), edición (modificar un dato) y examen (saber el estado del un acumulador, por ejemplo si está vacío o hubo un rebalse de bits, lo cual es muy importante para el control interno).

    c) La Memoria

    Se ha de entregar a un computador dos tipos de información: el programa y los datos que éste habrá de procesar. Esto implica que la memoria interna de la máquina se divide en varias partes: una para el programa y otra para los datos (iniciales, parciales y finales).

    Memoria ROM

    Además, para facilitar el trabajo del usuario, toda computadora se entrega con una especie de "programa maestro" que contiene instrucciones básicas para la Unidad de Control (normalmente: qué hacer al momento de encenderse y cómo realizar las operaciones lógicas base de su poder-), de tal modo que el operador no tenga que ocuparse del funcionamiento electrónico de la máquina. Este programa especial ocupa una parte reservada de la memoria, que puede ser leída pero no alterada: es la "ROM" ("read-only memory"), generalmente contenida en un "chip" especial. Al apagar el computador, esta información no desaparece, a diferencia de la memoria RAM.

    Memoria RAM

    La memoria disponible para recibir los programas y los datos es la "RAM" ("random-access memory"), o memoria de acceso aleatorio. Se llama así por cuanto es posible acceder directamente a cualquier lugar de ella si se conoce la "dirección" de la celdilla que contiene la información que interesa. Está constituida habitualmente por varios chips.
    Se tiene que distinguir entre la memoria principal, la memoria caché, y la memoria de vídeo.
    La primera se emplea para poder ejecutar mayores y más programas al mismo tiempo, la segunda para acelerar los procesos de la CPU, y la tercera nos permite visualizar modos de mayor resolución y con más colores en el monitor, así como almacenar más texturas en tarjetas 3D.

    • Memoria Principal

    La primera distinción que debemos realizar es el formato físico, cuyo parámetro más importante es el número de contactos o pines.
    Hoy en día podemos encontrarlas de 168 (64 bits) y casi 13 cm. conocida como DIMM y puede trabajar a 3,3V ó a 5V, DDR - SDRAM 184 pines usan el mismo conector que las DIMM.

    Los módulos de memoria DDR-SDRAM (o DDR, como se les llama usualmente) son del mismo tamaño que los DIMM de SDRAM, pero con más conectores: 184 pines en lugar de los 168 de la SDRAM normal.

    Además, para que no exista confusión posible a la hora de instalarlos (lo cual tendría consecuencias sumamente desagradables), los DDR tienen 1 única muesca en lugar de las 2 de los DIMM "clásicos".
    Evidentemente, resulta una lástima, pero tampoco podemos culpar a los fabricantes: los nuevos pines son absolutamente necesarios para implementar el sistema DDR, por no hablar de que se utiliza un voltaje distinto y que, sencillamente, tampoco nos serviría de nada poder instalarlos, porque necesitaríamos un chipset nuevo.
    Hablando del voltaje: en principio debería ser de 2,5 V, una reducción del 30% respecto a los actuales 3,3 V de la SDRAM. Esto beneficiará mucho a los usuarios de portátiles con memoria DDR, que verán aumentada su autonomía.
    ¿Cómo funciona la DDR-SDRAM (Doble Data Rate)?
    Consiste en enviar los datos 2 veces por cada señal de reloj, una vez en cada extremo de la señal (el ascendente y el descendente), en lugar de enviar datos sólo en la parte ascendente de la señal.
    De esta forma, un aparato con tecnología DDR que funcione con una señal de reloj "real", "física", de por ejemplo 100 MHz, enviará tantos datos como otro sin tecnología DDR que funcione a 200 MHz. Por ello, las velocidades de reloj de los aparatos DDR se suelen dar en lo que podríamos llamar "MHz efectivos o equivalentes" (en nuestro ejemplo, 200 MHz, "100 MHz x 2").
    ¿Y por qué se hace esto? ¿No es más fácil subir el número de MHz? Bien, intelectualmente es más sencillo, pero sucede que cuanto más rápido vaya un dispositivo (en MHz "físicos"), más difícil es de fabricar. Precisamente éste es uno de los problemas de la memoria Rambus: funciona a 266 MHz "físicos" o más, y resulta muy difícil (y cara) de fabricar.
    La tecnología DDR está de moda últimamente, bajo éste u otro nombre. Además de las numerosísimas tarjetas gráficas con memoria de vídeo DDR-SDRAM, tenemos por ejemplo los microprocesadores AMD Athlon y Duron, cuyo bus de 200 MHz realmente es de "100 x 2", "100 MHz con doble aprovechamiento de señal"; o el AGP 2X ó 4X, con 66 MHz "físicos" aprovechados doble o cuádruplemente, ya que una tarjeta gráfica con un bus de 266 MHz "físicos" sería dificilísima de fabricar... y extremadamente cara.
    Bien, pues la DDR-SDRAM es el concepto DDR aplicado a la memoria SDRAM. Y la SDRAM no es otra que nuestra conocida PC66, PC100 y PC133, la memoria que se utiliza actualmente en casi la totalidad de los PCs normales; los 133 MHz de la PC133 son ya una cota difícil de superar sin subir mucho los precios, y por ello la introducción del DDR.
    Tipos de DDR-SDRAM y nomenclatura
    Por supuesto, existe memoria DDR de diferentes clases, categorías y precios. No podía ser tan sencillo...
    Lo primero, puede funcionar a 100 o 133 MHz (de nuevo, "físicos"); algo lógico, ya que se trata de SDRAM con DDR, y la SDRAM funciona a 66, 100 ó 133 MHz (por cierto, no existe DDR a 66 MHz). Si consideramos los MHz "equivalentes", estaríamos ante memorias de 200 ó 266 MHz.
    En el primer caso es capaz de transmitir 1,6 GB/s (1600 MB/s), y en el segundo 2,1 GB/s (2133 MB/s). Al principio se las conocía como PC200 y PC266, siguiendo el sistema de clasificación por MHz utilizado con la SDRAM. Pero llegó Rambus y decidió que sus memorias se llamarían PC600, PC700 y PC800, también según el sistema de los MHz. Como esto haría que parecieran muchísimo más rápidas que la DDR (algo que NO SUCEDE, porque funcionan de una forma completamente distinta), se decidió denominarlas según su capacidad de transferencia en MB/s: PC1600 y PC2100 (PC2133 es poco comercial, por lo visto).
    • Memoria Cache

    La memoria cache forma parte de la tarjeta madre y del procesador (hay dos tipos) y se utiliza para acceder rápidamente a la información que utiliza el procesador. Existen cache primario (L1) y cache secundario (L2). El cache primario esta definido por el procesador y no lo podemos quitar o poner. En cambio el cache secundario se puede añadir a la tarjeta madre. La regla de mano es que si se tienen 8 Megabytes (Mb) de memoria RAM se debe tener 128 Kilobytes (Kb) de cache. Si se tiene 16 Mb son 256 Kb y si se tiene 32 Mb son 512 Kb. Parece que en adelante no se observa mucha mejoría al ir aumentando el tamaño del cache. Los Pentium III y IV tienen el cache secundario incluido en el procesador y este es normalmente de 128 Kb a 512 Kb.

    d) Periféricos de Memoria Auxiliar

    Dispositivos de Almacenamiento

    La cantidad de información que requerimos manejar hoy es mucho más grande que cualquier memoria RAM y, como no conviene en absoluto que los datos se pierdan al cortarse el suministro de energía eléctrica, se requieren periféricos especiales para conservarlos. Antes fueron perforadores y lectores de tarjetas perforadas; hoy son "drives" con cintas magnéticas o discos magnéticos u ópticos.

    La memoria de la computadora RAM es un lugar provisional de almacenamiento para los archivos que usted usa. La mayoría de la información guardada en la RAM se borra cuando se apaga la computadora. Por lo tanto, su computadora necesita formas permanentes de almacenamiento para guardar y recuperar programas de software y archivos de datos que desee usar a diario. Los dispositivos de almacenamiento (también denominados unidades) fueron desarrollados para satisfacer esta necesidad.

    Los siguientes constituyen los tipos más comunes de dispositivos de almacenamiento


    Todas las Computadoras Personales actuales disponen de una unidad de disco duro, una unidad de disquetes y una unidad de CD ya instaladas. Para usar estos dispositivos de almacenamiento de manera adecuada, usted debe saber cómo encontrarlos en la computadora y cómo se denominan al guardar y recuperar información.


    ¿Como ubicar las Unidades?



    La unidad de disco duro (1) se encuentra adentro de la computadora y no es necesario obtener acceso a la misma. Puede obtener acceso a la unidad de CD (2) y la unidad de disquetes desde el panel frontal de la computadora. La unidad de CD consiste en un dispositivo de 5,25 pulgadas con una ranura cubierta o con una bandeja deslizable, un botón de carga / expulsión y un indicador de actividad luminoso. La unidad de disquetes (3) consiste en un dispositivo de 3,5 pulgadas con una ranura cubierta, un botón de expulsión y un indicador de actividad luminoso.



    Asignación de Unidades



    Usted debe saber la designación (la letra) de la unidad para que pueda indicarle a la computadora dónde guardar los archivos o dónde recuperar los archivos que necesita. Las unidades se designan por letra del alfabeto. La unidad de disco duro es designa comúnmente con la letra C, la unidad de disquetes con la A y la unidad de CD con la D.



    Ø El Disco Duro

    Los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último). Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos / leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera. En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector.

    Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda. ara leer, se mide la corriente inducida por el campo magnético de la celda. Es decir que al pasar sobre una zona detectará un campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si en esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe una corriente que provoca un campo magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor del campo magnético provocado por dicha corriente.

    Los componentes físicos de una unidad de disco duro son:

    o CABEZA DE LECTURA / ESCRITURA: Es la parte de la unidad de disco que escribe y lee los datos del disco. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.

    o DISCO: Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control

    o EJE: Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco.

    o IMPULSOR DE CABEZA: Es el mecanismo que mueve las cabezas de lectura / escritura radialmente a través de la superficie de los platos de la unidad de disco.

    Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes parámetros:


    o CILINDRO: Es una pila tridimensional de pistas verticales de los múltiples platos. El número de cilindros de un disco corresponde al número de posiciones diferentes en las cuales las cabezas de lectura / escritura pueden moverse.

    o CLUSTER: Es un grupo de sectores que es la unidad más pequeña de almacenamiento reconocida por el DOS. Normalmente 4 sectores de 512 bytes constituyen un Cluster (racimo), y uno o más Cluster forman una pista.

    o PISTA: Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster.

    o SECTOR: Es la unidad básica de almacenamiento de datos sobre discos duros. En la mayoría de los discos duros los sectores son de 512 Bytes cada uno, cuatro sectores constituyen un Cluster.

    Otros elementos a tener en cuenta en el funcionamiento de la unidad es el tiempo medio entre fallos, MTBF (Mean Time Between Failures), se mide en horas (15000, 20000, 30000..) y a mayor numero mas fiabilidad del disco, ya que hay menor posibilidad de fallo de la unidad. Otro factor es el AUTOPARK o aparcamiento automático de las cabezas, consiste en el posicionamiento de las cabezas en un lugar fuera del alcance de la superficie del disco duro de manera automático al apagar el ordenador, esto evita posibles daños en la superficie del disco duro cuando la unidad es sometida a vibraciones o golpes en un posible traslado.

    El disco duro es el sistema de almacenamiento más importante de su computador y en el se guardan los archivos de los programas - como los sistemas operativo Windows 98, Windows XP, Windows NT las hojas de cálculo como Excel los procesadores de texto como Word, juegos, archivos de cartas y otros documentos que se producen.

    La mayoría de los discos duros en los computadores personales son de tecnología IDE (Integrated Drive Electronics), que viene en las tarjetas controladoras y en todas las tarjetas madres (motherboard) de los equipos nuevos y SCSI, aunque el primero está mucho más extendido que el segundo, la tecnología SCSI está presente en otras muchas plataformas, como los Mac, sistemas Unix, AS/400, etc.

    Las tecnologías IDE y SCSI reconocen automáticamente (autodetect) los discos duros que se le coloquen, capacidades que van desde los 2.1 Gb. a los 120 Gb.

    Los dos estándares han ido sufriendo a lo largo del tiempo distintas implementaciones para intentar seguir el ritmo marcado por otros componentes cada vez más rápidos, como los procesadores.

    Parámetros para tener en cuenta

    • Capacidad: Aconsejable que sea a partir de 10 Gb. en adelante.

    • Tiempo de acceso: Importante. Este parámetro nos indica la capacidad para acceder de manera aleatoria a cualquier sector del disco. Es el tiempo medio necesario que tarda la cabeza del disco en acceder a los datos que necesitamos. Realmente es la suma de varias velocidades:

    o El tiempo que tarda el disco en cambiar de una cabeza a otra cuando busca datos.
    o El tiempo que tarda la cabeza lectora en buscar la pista con los datos saltando de una a otra.
    o El tiempo que tarda la cabeza en buscar el sector correcto dentro de la pista.
    Es uno de los factores más importantes a la hora de escoger un disco duro. Cuando se oye hacer ligeros clic al disco duro, es que está buscando los datos que le hemos pedido. Hoy en día en un disco moderno, lo normal es sobre 10 milisegundos

    • Velocidad de Rotación (RPM): Es la velocidad a la que gira el disco duro, más exactamente, la velocidad a la que giran el / los platos del disco, que es donde se almacenan magnéticamente los datos. La regla es: a mayor velocidad de rotación, más alta será la transferencia de datos, pero también mayor será el ruido y mayor será el calor generado por el disco duro. Se mide en número revoluciones por minuto ( RPM). No debe comprarse un disco duro IDE de menos de 5400RPM (ya hay discos IDE de 7200RPM), a menos que te lo den a un muy buen precio, ni un disco SCSI de menos de 7200RPM (los hay de 10.000RPM). Una velocidad de 5400RPM permitirá una transferencia entre 10MB y 16MB por segundo con los datos que están en la parte exterior del cilindro o plato, algo menos en el interior.

    • Velocidad de Transferencia (Transfer rate): Directamente relacionada con el interface. Es un número que indica la cantidad de datos que un disco puede leer o escribir en la parte más exterior del disco o plato en un periodo de un segundo. Normalmente se mide en Mbits / segundo, y hoy en día, en un disco de 5400RPM, un valor habitual es 100Mbits/s, que equivale a 10MB/s.
    • Interfaz ( Interface) de conexión IDE - SCSI
    Lo primero que debería evaluarse cuando se va a adquirir un disco duro es el interfaz de conexión que utilizará: IDE o SCSI. Hoy en día esta cuestión es más fácil de resolver que hace un tiempo, gracias al gran avance que han experimentado los discos IDE (o EIDE, Enhanced IDE) en los últimos años.
    Antiguamente, no cabía duda: los discos SCSI eran más rápidos, especialmente gracias a que las controladoras SCSI son "inteligentes"; es decir, que se encargan por su cuenta de parte de las operaciones de entrada / salida de datos, descargando de este trabajo a la CPU.

    Sin embargo, gracias a la aplicación en los discos IDE de los modos UltraDMA (o, más correctamente, del bus mastering), los discos IDE modernos no bloquean tanto como antes a la CPU durante la escritura / lectura de los datos. No se ha llegado (ni se llegará) a la eficacia de SCSI, pero el avance es notable y para muchos usos más que suficiente. Incluso existen casos límite en los cuales, en computadores con sólo 1 disco duro y escaso uso de la multitarea, puede ser un poco más rápido utilizar IDE que SCSI, ya que se evita la capa de comandos que permite a SCSI manejar simultáneamente hasta 15 dispositivos.

    Si no piensa utilizar su PC para "aplicaciones altamente profesionales" (aplicaciones gráficas, edición de audio / vídeo, servidores...), no necesita SCSI; un buen disco duro IDE será más que suficiente.
    ¿Y qué es un buen disco duro IDE? Bien, para responder a eso podemos ir adelantando un dato: un buen disco duro tendrá una velocidad de rotación de 7.200 rpm (revoluciones por minuto). Los discos duros "normales", "de consumo", giran normalmente a 5.400 rpm, y los mejores del mercado (SCSI de altísimas prestaciones) a 10.000 rpm (una velocidad tan alta que genera serios problemas de ruido y calentamiento).
    Interfaz IDE
    IDE es el nombre del interfaz más utilizado para la conexión de discos duros (y CD-ROMs) en los ordenadores. Tan común es, que desde hace muchos años (desde finales de la casi olvidada era de los 486) todas las placas base incorporan la controladora IDE integrada. La ventaja de IDE es que los discos duros que utilizan esta tecnología son más baratos que los discos duros que utilizan SCSI. Finalmente, resulta algo más fácil instalar un disco duro IDE que uno SCSI, aunque la diferencia no es abismal.
    ¿Desventajas? Bien, la primera es que normalmente en un ordenador pueden instalarse sólo 4 dispositivos IDE, 2 por cada canal IDE, asumiendo que la controladora sea EIDE (Extended-IDE), lo cual no es mucho asumir ya que es el caso habitual en controladoras integradas o con menos de 4 años. Puede que le parezcan suficientes, pero piense que con el disco duro y un reproductor de CD-ROM ya sólo le quedan 2 puestos libres... que en realidad suelen ser suficientes para la mayoría de usuarios, pero no para todos, especialmente si decide instalar una unidad Zip o SuperDisk interna y/o una grabadora de CDs.
    La segunda atañe a la velocidad, aunque de una forma peculiar. La gente suele decir que "los discos duros IDE son más lentos que los SCSI", lo cual NO es cierto, pero suele ser cierto, aunque a veces es al revés.
    • Los discos duros SCSI, debido a su orientación profesional, tienden a incorporar mucho antes los avances tecnológicos y a tener prestaciones superiores, por lo que suelen ser de por sí mejores que los IDE, independientemente del interfaz, aparte de ser claramente superiores en ciertas aplicaciones específicas.
    • Sin embargo, los discos duros IDE pueden ser igual de rápidos que los SCSI, siempre que se trate de discos duros con una mecánica similar (esto es, que sólo se diferencien en el interfaz de conexión, pero que giren a la misma velocidad y sus tiempos de acceso sean similares).
    • E incluso, en el caso de discos duros modernos de características similares, en un ordenador con un único disco duro puede que IDE sea incluso más rápido que SCSI, ya que SCSI está pensado para varios dispositivos y para multitarea, lo que necesita una cierta carga de trabajo que se desperdicia en el caso de no utilizar más que un disco duro y una única aplicación.
    Por ello, el usuario doméstico no debe ni planteárselo: lo que necesita es un disco duro IDE, SCSI sencillamente no está previsto para esos usos y no le ofrecerá ninguna ventaja. Sólo recuerde que si tiene más de un dispositivo, debe colocarlos en canales distintos, especialmente si uno de ellos es más lento que el otro (como sucede con los CD-ROM).
    ¿Quién necesita SCSI?
    Sencillamente, quien vaya a utilizar muchos dispositivos en su ordenador, o necesite hacer un gran uso simultáneo de los mismos, o utilice multitarea de forma masiva. En tales casos, SCSI no tiene rival; distribuye a la perfección el ancho de bus entre los diversos dispositivos, permite un uso totalmente simultáneo del bus (lo que no es posible en IDE, salvo utilizando canales distintos) y para colmo carga muy poco trabajo en el microprocesador, salvo que se utilicen controladoras de baja calidad.
    El caso típico de utilización de SCSI es el de un servidor de archivos, que necesita responder a numerosas solicitudes simultáneas, con datos dispersos probablemente en varios discos duros (SCSI admite hasta 15 dispositivos). Casos menos extremos que podrían requerir SCSI serían los usuarios de programas de edición de vídeo o los de programas CAD, aunque estos últimos quizá tuvieran suficiente con un disco duro IDE de gama alta.
    Dos temas que no se deben descuidar a la hora de comprar dispositivos SCSI son el tipo de norma utilizada y la velocidad de rotación del disco duro. Actualmente sólo se emplean dos normas para discos duros SCSI: la Wide SCSI y la Ultra-2.
    • La norma Wide SCSI (realmente "UltraWide SCSI") define una conexión de 16 bits a una velocidad de 20 MHz, lo que con un hábil cálculo nos lleva a una velocidad de transferencia máxima teórica de 40 MB/s. Esto suele ser suficiente cuando tratamos con un único disco duro, que apenas superará los 20 MB/s en breves ráfagas, pero resulta insuficiente si utilizamos varios dispositivos.
    • La norma Ultra-2 (Ultra-2 Wide SCSI, para ser correctos) dobla la velocidad de la anterior, llegando hasta 40 MHz, lo que con un bus de 16 bits hacen 80 MB/s, enorme cifra totalmente inalcanzable por un único disco duro pero nada exagerada para ordenadores con dos o más dispositivos SCSI.
    Recomendación es decidirse por discos Ultra-2, especialmente teniendo en cuenta su escasa diferencia de precio frente a los Wide SCSI. Ciertamente la controladora puede que se encarezca un poco, pero no es un dispositivo en el que se pueda escatimar. En cuanto a si es mejor controladora en tarjeta o integrada en placa base, no es más que un tema de gustos; la integrada cuesta menos y es una solución más "limpia", aunque si se rompe la placa base el disgusto es monumental.
    Girar y rotar
    La velocidad de rotación es uno de los parámetros fundamentales en un disco duro, ya que cuanto más rápido gira, mayor es la transferencia de datos.
    Bueno, en realidad no es tan sencillo, depende de si los datos están en el centro o en la periferia del disco, del número de cabezas y discos y de su disposición, del buffer, de los tiempos de acceso... pero en general es algo muy importante. Si en 1.997 los discos duros "de consumo" giraban a 4.500 rpm y en 1.998 lo hacían a 5.400 rpm, a mediados de 1.999 empiezan a entrar con fuerza los discos duros a 7.200 rpm.
    En el mercado SCSI, que como decíamos está muy orientado a lo profesional, todos los discos son (o deberían ser) de 7.200 rpm, e incluso existen monstruos a 10.000 rpm. En el mercado IDE parece haber dos clases de discos:
    • Discos a 5.400 rpm, con enormes capacidades a un precio ridículo.
    • Discos a 7.200 rpm a un precio sensiblemente más elevado (muchos fabricantes fabrican dos gamas distintas según estas características, como Western Digital con las series Caviar -5.400 rpm- y Expert -7.200 rpm-, o Seagate con las Medalist y Medalist Pro).
    ¿Qué es mejor? Depende de sus prioridades, no hay una respuesta clara. Ahora bien, un buen disco IDE a 7.200 rpm puede ser perfecto si lo que necesita es montar un puesto de trabajo de CAD y no quiere desembolsar lo que vale SCSI, por ejemplo; aunque tenga en cuenta las limitaciones de IDE, un servidor es seguro al 95% que necesitará SCSI.
    Por cierto, 7.200 rpm es toda una cifra, sin duda, lo que se nota en la gran cantidad de calor que generan estos discos debido a la fricción; Es por ello que no resulta ninguna tontería colocarles un ventilador para enfriarlos un poco, aunque recuerde que si el calor no puede salir de la caja del ordenador no servirá de nada.
    Modos ATA, UltraATA, UltraDMA, UDMA...
    Lo primero, hágase a la idea de que, comercialmente hablando, todos estos términos se refieren a lo mismo: los modernos modos de acceso a discos duros IDE que permiten liberar al microprocesador de parte del trabajo de la transferencia de datos.
    Modo de acceso Transferencia máxima teórica Comentario
    UltraDMA33 (ATA33 o UltraDMA modo 2) 33,3 MB/s Primero de uso masivo; el estándar IDE durante años; cable "normal"
    UltraDMA66 (ATA66 o UltraDMA modo 4) 66,6 MB/s Bastante común; utiliza un cable de 40 pines y 80 conductores
    UltraDMA100 (ATA100 o UltraDMA modo 5) 100 MB/s De reciente implantación; utiliza un cable de 40 pines y 80 conductores.
    UltraDMA/66
    No nos olvidemos de esta nueva tecnología, que ya empieza a aparecer de forma críptica en algunos anuncios de ordenadores. Primeramente, recordemos que los modos DMA hacen referencia a un modo de acceso a los discos duros IDE que libera al microprocesador de gran parte del trabajo de la transferencia de datos, de forma similar a lo que hace SCSI.
    De los muchos modos DMA, el único que ha tenido amplia aceptación ha sido el actual estándar en discos duros IDE, el UltraDMA/33 (también llamado DMA/33, UltraATA/33 o UltraATA Modo 2). Permite una tasa de transferencia de datos teórica de 33,3 MB/s, lo que NO quiere decir que el disco alcance 33,3 MB/s, sino que si los alcanzara "cabrían" por el bus.
    Actualmente ningún disco llega a esos 33,3 MB/s, pero los nuevos discos a 7.200 rpm pueden llegar a rozar ligeramente esa cota, lo que ha motivado la aparición del nuevo modo UltraDMA/66, o UltraATA Modo 4 (el Modo 3 sería de 44 MB/s). Las diferencias con el UltraDMA/33 son sólo dos: permite alcanzar hasta 66,6 MB/s y utiliza un cable especial.






    La necesidad de cambiar el tipo de cable es consecuencia directa de las altas velocidades que podrían alcanzarse, algo para lo cual los cables IDE no estaban en absoluto pensados. Los nuevos cables (que resultan imprescindibles para conservar la integridad de los datos) tienen 80 conductores, aunque conservan el mismo tipo de conector de 40 pines por motivos de compatibilidad.
    Sobre este aspecto de la compatibilidad "hacia atrás", los discos duros UltraDMA/66 son 100% compatibles con los modos de acceso anteriores; por ejemplo, pueden funcionar perfectamente en modo UltraDMA/33, sólo que no podrán superar los 33,3 MB/s (algo que muy probablemente tampoco son capaces de conseguir).
    Los fabricantes están sacando modelos de discos duros UltraDMA/66 a marchas forzadas, lo que no es extraño; el avance resulta fácil de aplicar a los discos duros en sí, lo más complicado está en la controladora y el cable. Lo que es más, bastantes de los discos duros UltraDMA/66 que veremos funcionarán a 5.400 rpm, lo que hace totalmente imposible que aprovechen el ancho de bus extra.
    Un disco duro UltraDMA/66 debería ser de al menos 7.200 rpm, y aun así la diferencia de rendimiento será muy difícilmente apreciable, aunque a cambio la diferencia de precio será prácticamente nula, hasta el punto de que en poco tiempo todos los discos serán UltraDMA/66.
    El nuevo UltraDMA100 (ATA100, o...) es una simple extensión del UltraDMA66.
    Requisitos para utilizar este modo de transferencia:
    1. Que el disco duro sea UltraDMA66 (o UltraDMA100).
    2. Que el cable sea de 40 pines con 80 conductores en vez del "normal" de 40 pines con 40 conductores; este requisito es sencillo de cumplir y barato;
    3. Que el sistema operativo tenga soporte para DMA; Windows 98, Windows 2000, Windows XP.
    4. Que la controladora IDE soporte UltraDMA66 (o UltraDMA100).
    El último es el factor más limitante, ya que actualmente el soporte de discos IDE lo ofrece el chipset de la placa base.
    Datos de control del disco

    Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan determinados sectores que son defectuosos.

    En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia.

    Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son datos, existen zonas donde se almacena información de control. Entre la información que se encuentran dentro de un sector:

    • Numero de sector y cilindro
    • El ECC (Error Correction Code) DATA.
    • La zona de datos
    • Zonas de separación entre zonas o entre pistas. También existen pistas extra donde se recogen otras informaciones como:

    o Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL.
    o Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.
    o Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la superficie con datos ante vibraciones o golpes de la unidad.

    Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios conocer para comprender su funcionamiento y sus diferencias.

    • Tiempo de búsqueda de pista a pista: intervalo de tiempo necesario para desplazar la cabeza de lectura y escritura desde una pista a otra adyacente.

    • Tiempo medio de acceso: tiempo que tarda, como media, para desplazarse la cabeza a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro.

    • Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.

    • Latencia Promedio: Es el promedio de tiempo para que el disco una vez en la pista correcta encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad de transferencia: velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad central. Depende esencialmente de dos factores: la velocidad de rotación y la densidad de almacenamiento de los datos en una pista


    3600 rpm. = 1 revolución cada 60/3600 segundos (16,66 milisegundos)

    El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de pistas por pulgada (que a su vez depende de factores como el tamaño de los dominios magnéticos) y de la velocidad y la precisión de los engranajes del cabezal. La latencia depende de la velocidad de rotación y equivale a la mitad del tiempo que tarda el disco en describir un giro completo. El rendimiento total también depende de la disposición de los dominios magnéticos, uso de ZBR.

    Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco o velocidad de eje. Hace unos años todos los discos duros giraban a la misma velocidad unos 3600 rpm, la latencia resultante era de 8,3 milisegundos. Hoy las unidades de disco más rápidas para PC giran a 5400 rpm. (un 50% más rápidas) y por tanto su latencia es de 5,6 milisegundos. Algunos discos siguen usando los 3600 rpm para consumir menos energía.

    RPM 1 Vuelta cada Latencia
    3600 16,66 mseg. 8,33 mseg.
    4500 13,33 mseg. 6,66 mseg.
    5400 11,11 mseg. 5,55 mseg.
    7200 8,33 mseg. 4,16 mseg.
    10000 6,00 mseg. 3,00 mseg.

    El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que a esta velocidad la disipación del calor se concierte en un problema. El segundo es que exige a usar nuevos motores articulados pro fluidos para los engranajes, los actuales motores de cojinetes no pueden alcanzar estas velocidades sin una reducción drástica de fiabilidad, se quemarían demasiado rápido.

    Además de todas estas características de velocidades y tiempos de acceso de los discos duros existen una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las transferencias de datos entre el sistema y el dispositivo en cuestión. Una de las técnicas más conocidas en la informática para hacer esto es la del uso de memorias intermedias, buffers o cachés.

    • Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta se puede leer de una sola vez, enviando la información a la CPU.

    • Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solicitados en un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad.

    Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos:

    • Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbytes. Con el modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes / seg.

    • Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg.

    • DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo.

    • Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un controlador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por segundo.

    La aceleración del los nuevos discos IDE se basan en dos métodos:

    • Gracias al control de flujo, la parte electrónica de la unidad de disco puede regular las funciones de transferencia de datos del microprocesador, y el disco duro puede comunicarse con el bus a mayor velocidad de manera fiable. El Standard PIO modo 3 tiene una transferencia teórica máxima de 11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro PIO modo 5 promete hasta 33 Mbytes / seg.

    • El otro método alternativo denominado FAST Multiword DMA con el controlador DMA (acceso directo a memoria) sustituye al procesador en el gobierno de las transferencias de datos entre el disco duro y la memoria del sistema. SSF define que el Modo 1 de transferencias DMA soporte velocidades internas de hasta 13,3 Mbps, lo que es equiparable a los resultados del control PIO en modo 3.

    Los cabezales pueden escribir y leer dominios magnéticos menores, cuanto menor sean éstos mayor densidad de datos posible de cada plato. Pero cuanto más cerca estén los cabezales, mayor será la probabilidad de colisión con la superficie. Una solución es recubrir el plato con materiales protectores, rediseñar las características aerodinámicas de los cabezales, etc. Además el paso de una mayor cantidad de datos por los cabezales exige perfeccionar los componentes electrónicos, e incluso puede obligar a ampliar la memoria caché integrada. Además no hay que olvidar que los dominios menores son estables a las temperaturas de funcionamiento normales. Y todo esto a un precio competitivo.

    Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza nuevos materiales. Usa cabezales con mejor relación señal /ruido que los de tipo inductivo, separando los de lectura de los de escritura. Pueden trabajar con dominios magnéticos menores aumentando la densidad de almacenamiento. Además son menos sensibles al aumento de la velocidad permitiendo velocidades de rotación mayores. Sus inconvenientes son su dificultad y alto precio de fabricación, y su sensibilidad ante posibles cargas eléctricas. Se investiga en una mejora llamada GMR (MR Gigante) que emplea el efecto túnel de electrones de la mecánica cuántica.

    Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie magnética de los platos con materiales antiadherentes derivados del carbono. Esto junto con las técnicas de cabezales de grabación en proximidad, los TRI-PAD (cabezales trimorfos) y los de contacto virtual permiten acercar los cabezales hasta incluso entrar ocasionalmente en contacto con la superficie del plato.

    A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo del cabezal respecto a la superficie, usando zonas de seguridad y cierres inerciales en las cabezas. Así no se necesita una preparación especial de la superficie del plato.

    Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos.





    En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema operativo, sería la siguiente:

    Sector de Arranque.
    Primera tabla de localización de archivos (FAT32).
    Una o más copias de la FAT32.
    Directorio Raíz (eventualmente con etiqueta de volumen).
    Zona de datos para archivos y subdirectorios.

    Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente

    • El Sector de Arranque: Al formatear un volumen, el sector de arranque se crea siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT).

    • La Tabla de Asignación de Ficheros (File Allocation Table) (FAT o FAT32): Si el DOS o Windows quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT o FAT32. Cada entrada a esta tabla se corresponde con un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters, correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16 bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente hay FAT's de hasta 32 bits, para discos duros grandes que almacenan Gigas de información.

    • El directorio Raíz: La cantidad máxima de entradas en el directorio raíz se limita por su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al volumen.

    • La Zona de Datos: Es la parte del disco duro en la que se almacena los datos de un archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos de Windows, y del camino que se lleva desde la FAT32 hacia los diferentes sectores de un archivo.

    Ø La Unidad de Disquete

    Las unidades de disquete de 3.5 pulgadas con capacidad de 1.44Mb son un estándar de hace mucho tiempo y no hay mucha variedad entre ellas. Prácticamente todas sus características son las mismas. Con la distribución de programas en CD y DVD, y el vertiginoso crecimiento del tamaño de los programas las unidades han quedado casi que obsoletas. Aun así, se usan para mover programas pequeños y documentos de un computador a otro. Su precio es irrisorio así que hay que comprar una. Casi siempre para formatear un disco duro e inicializar un CD-ROM se necesita una unidad de estas para cargar el sistema operativo.




    Tiempo más tarde surgió una unidad de almacenamiento removible, conectable a un puerto SCSI, que utilizaba unos cartuchos parecidos a los disquetes, pero que lograban contener 100 Mb. en datos. Esta unidad es la Zip de iomega, que con el tiempo se ha ido convirtiendo en una seria alternativa al disquete de 1,44. Hoy en día se ha abaratado su coste, tanto la unidad en sí como los cartuchos, y se han creado unidades conectables al puerto IDE y a la salida paralelo del ordenador, habiendo, por tanto unidades internas y externas. También se ha conseguido que muchos fabricantes de placas base incorporen en sus ROM's código para hacerlas autoarrancables, y así poder sustituir por completo a la disquetera tradicional.

    Tiempo más tarde surgió una unidad de almacenamiento removible, conectable a un puerto SCSI, que utilizaba unos cartuchos parecidos a los disquetes, pero que lograban contener 100 Mb. en datos.
    Esta unidad es la Zip de Iomega, que con el tiempo se ha ido convirtiendo en una seria alternativa al disquete de 1,44.

    Hoy en dia se ha abaratado su costo, tanto la unidad en sí como los cartuchos, y se han creado unidades conectables al puerto IDE y a la salida paralelo del ordenador, habiendo, por tanto unidades internas y externas.

    También se ha conseguido que muchos fabricantes de placas base incorporen en sus ROM's código para hacerlas autoarrancables, y así poder sustituir por completo a la disquetera tradicional.

    Más tarde, Imation, actualmente una división de 3M, sacó al mercado una disquetera, capaz de leer y grabar en todos los formatos del estándar de 3 1/2, pero que también permite, con unos disquetes especiales y en un nuevo formato, almacenar 120 Mb.

    Esta unidad recibe el nombre de LS-120, y actualmente algunas empresas como Panasonic, ya están comercializando unidades tanto externas, conectables al puerto paralelo, como internas conectables al IDE. Al igual que la ZIP de Iomega, también está implementada en la ROM de algunos ordenadores para ser usada como unidad de arranque.


    Ø Discos Compactos

    • La Unidad de CD-ROM

    Definición

    Es un sistema de almacenamiento de datos permanente, modificable y/o no modificable basado en el lector óptico de rayos láser.


    Ante todo digamos que el CD-ROM procede, según sus propias iniciales originales, de la expresión Compact Disk-Read Only Memory (Disco compacto de memoria solamente de lectura) y, lo que en términos habituales denominamos ROM, es equivalente a Almacenamiento de Datos Permanente no modificable.
    Se trata, por tanto, de un Disco Compacto de gran almacenamiento, regrabable y/o no regrabable, hoy en día, que se conecta al computador como un periférico más.


    Características técnicas
    Físicamente, es idéntico a un disco compacto de sonido, pero los amantes de las curiosidades deben saber que el material de que está hecho es policarbonato. El policarbonato es una fibra muy dura. Con ella se fabrican objetos tan variados como cascos de motoristas o mesas transparentes de gran dureza. Pues bien, se trata de un disco de policarbonato (atestado de cavidades microscópicas u hoyos), de 120mm de diámetro, 1.2mm de grosor y un orificio central de 15mm de diámetro.
    A quienes se interesan por las cifras exactas, les recordaremos que la micra es una milésima de mm, por lo que las cavidades u hoyos miden 0.12 micras de profundidad y 0.6 micras de anchura. La separación entre vueltas adyacentes de la espiral es muy pequeña, de 1.6 micras. En consecuencia, la densidad resultante es muy grande, 16 000 pistas por pulgada. Recordemos que una pulgada es igual a 2.54cm. En una palabra, que la espiral de disco puede tener cerca de 5 Km y contener unos 2 000 millones de hoyos.
    Llevando esta terminología de uso común señalaremos que su capacidad oscila, según las marcas de los distintos fabricantes, entre 600 y 700 megabytes, que es aproximadamente la misma que 500 disquetes de 31/2 pulgadas (de 1.4 Mb), mientras que su equivalente en disco duro sería de 27 discos de 20 Mb, aproximadamente. Comparando estas cifras con el contenido de los textos de un libro, diremos que en un CD-ROM se pueden almacenar unas 250,000 páginas.
    La comparación del lector óptico del CD-ROM con los lectores de soportes magnéticos estriba en que aquí no existe contacto físico entre cabeza y disco, por tanto no hay rozamiento. En consecuencia, tendremos menor desgaste, superior duración y mayor seguridad en los datos, eso sería una gran ventaja.
    Como es sabido, los soportes magnéticos están organizados por pistas y sectores, por lo que el acceso a la información es muy rápido, ya que la cabeza lectora/grabadora se desplaza inmediatamente a la dirección
    Una vez terminado el proceso de instalación, el CD-ROM funcionará como un disco duro más de la computadora.
    El CD-ROM es un producto exclusivamente de lectura como formato general, ya que ahora existen los nuevos discos CDR-W los cuales pueden guardar información muchas veces ya no siendo un proceso de solo lectura, debe considerarse técnicamente como un producto de difusión masiva de información a un bajo costo.
    • La Unidad de DVD - ROM

    Las siglas DVD se traducen como Digital Video Device (dispositivo de vídeo digital) o bien Digital Versatile Disc (disco digital versátil). Resulta curiosa esta duplicidad de interpretaciones, que nos hace advertir que mientras unos lo consideran un simple almacenaje para vídeo, otros prefieren destacar que tiene muchas otras aplicaciones.
    A primera vista, un disco DVD es prácticamente indistinguible de un CD convencional; quizá tiene un brillo más o menos particular, pero dejando aparte esto nos encontramos con la clásica oblea redonda de material plástico, de 12 cm. de diámetro y con el agujero en el centro. Entonces, ¿qué le diferencia del clásico CD-ROM o del aún más clásico CD de música?
    Para ver la diferencia necesitaríamos un microscopio; en el DVD, al igual que en el CD, la información digital se representa mediante microscópicas marcas como agujeritos en la superficie del CD (tapadas por una resina transparente protectora). Lo que ocurre es que en el DVD dichas marcas son más pequeñas y están más juntas, por lo que al caber más la capacidad es mayor. ¿Simple, verdad?
    Tipos de DVD
    Mientras que de nuestro viejo amigo el CD sólo existía un tipo (aparte de los mini-CDs de 8 cm), en el DVD tenemos hasta 4 variedades (y esto sin contar los grabables): una cara y una capa, una cara y dos capas, dos caras y una capa y dos caras y dos capas. Cara se refiere a las dos del disco DVD: la de adelante y la de detrás (de nuevo una solución simple pero eficaz); capa es algo más complicado, se refiere a capas de material (y por tanto de información) superpuestas en la misma cara del disco.
    Así, la capacidad de un DVD va desde los 4,7 GB de la variedad de una cara y una capa hasta los 17 GB de la de dos caras y dos capas; o, equivalentemente, la capacidad de 7 a 26 CDs convencionales.
    ¿Y para qué sirve tanta capacidad? la principal función es el almacenaje de vídeo digital, para lo cual 17 GB no es una cifra demasiado exagerada.
    En el formato MPEG-2, un formato de compresión de vídeo digital (en el que emiten Canal Satélite y Vía Digital, por ejemplo), esos 17 GB se quedan en menos de 10 horas (eso sí, con sonido Dolby Digital AC-3). Y como la variedad más común de DVD es la de una cara y una capa, resultan algo más de 2 horas de vídeo; suficiente para una película con mayor calidad que en VHS, doblada en varios idiomas y con subtítulos en algunos más, a elección del usuario.
    Los DVD para datos informáticos se denominan DVD-ROM, mientras que los de vídeo se denominan DVD-Vídeo o simplemente DVD. También existen normas que definen DVDs de 8 cm. pero probablemente se usen tan poco como los CDs de ese tamaño.

    e) Tarjeta de video
    De manera resumida, es lo que transmite al monitor la información gráfica que debe presentar en la pantalla. Con algo más de detalle, realiza dos operaciones:
    • Interpreta los datos que le llegan del procesador, ordenándolos y calculando para poder presentarlos en la pantalla en forma de un rectángulo más o menos grande compuesto de puntos individuales de diferentes colores (píxel).
    • Coge la salida de datos digitales resultante de ese proceso y la transforma en una señal analógica que pueda entender el monitor.
    Estos dos procesos suelen ser realizados por uno o más chips: el microprocesador gráfico (el cerebro de la tarjeta gráfica) y el conversor analógico-digital o RAMDAC, aunque en ocasiones existen chips accesorios para otras funciones o bien se realizan todas por un único chip.

    El microprocesador puede ser muy potente y avanzado, tanto o más que el propio micro del ordenador; por eso algunos tienen hasta nombre propio: Virge, Rage Pro, Voodoo, TNT2, etc.

    VGA
    El estándar, la pantalla de uso obligado desde hace ya 10 años. Tiene multitud de modos de vídeo posibles, aunque el más común es el de 640x480 puntos con 256 colores, conocido generalmente como "VGA estándar" o "resolución VGA".
    SVGA, XGA y superiores
    El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles. Entre ellos estaban:




    Modo de vídeo Máxima resolución y máximo número de colores
    SVGA 800x600 y 256 colores
    XGA 1024x768 y 65.536 colores
    IBM 8514/A 1024x768 y 256 colores (no admite 800x600)




    De cualquier manera, la frontera entre unos estándares y otros es sumamente confusa, puesto que la mayoría de las tarjetas son compatibles con más de un estándar, o con algunos de sus modos. Además, algunas tarjetas ofrecen modos adicionales al añadir más memoria de vídeo.
    La resolución y el número de colores

    En el contexto que nos ocupa, la resolución es el número de puntos que es capaz de presentar por pantalla una tarjeta de vídeo, tanto en horizontal como en vertical. Así, "800x600" significa que la imagen está formada por 600 rectas horizontales de 800 puntos cada una. Para que nos hagamos una idea, un televisor (de cualquier tamaño) tiene una resolución equivalente de 800x625 puntos.

    En cuanto al número de colores, resulta casi evidente: los que puede presentar a la vez por pantalla la tarjeta. Así, aunque las tarjetas EGA sólo representan a la vez 16 colores, los eligen de una paleta (sí, como las de pintor) de 64 colores.

    La combinación de estos dos parámetros se denomina modo de vídeo; están estrechamente relacionados: a mayor resolución, menor número de colores representables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que las liga es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no la memoria general o RAM). Algunas combinaciones posibles son:

    Memoria de vídeo Máxima resolución (en 2D) Máximo número de colores
    512 Kb 1024x768 a 16 colores 256 a 640x480 puntos
    1 MB 1280x1024 a 16 colores 16,7 millones a 640x480
    2 MB 1600x1200 a 256 colores 16,7 millones a 800x600
    4 MB 1600x1200 a 65.536 colores 16,7 millones a 1024x768

    Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, ya que si no éste podría dañarse gravemente (muy gravemente). Esto depende de las características del mismo, en concreto de la Frecuencia Horizontal, como se explica en el apartado dedicado al monitor.

    Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen necesitar bastante más memoria, en general unas 3 veces más; por ello, jugar a 800x600 puntos con 16 bits de color (65.536 colores) suele requerir al menos 8 MB de memoria de vídeo en algunos casos mucho mas.
    La velocidad de refresco

    El refresco, es el número de veces que se dibuja la pantalla por segundo (como los fotogramas del cine); evidentemente, cuanto mayor sea menos se nos cansará la vista y trabajaremos más cómodos y con menos problemas visuales.

    Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el mínimo de fatiga visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos sufren muchísimo, y unos minutos bastan para empezar a sentir escozor o incluso un pequeño dolor de cabeza.

    Antiguamente se usaba una técnica horrible denominada entrelazado, que consiste en que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares, por lo que 70 Hz entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la vista sobremanera. Afortunadamente la técnica está en desuso, pero en los monitores de 14" se ha usado hasta hace un par de años.

    Memoria de vídeo

    Como hemos dicho, su tamaño influye en los posibles modos de vídeo (cuanta más exista, más opciones tendremos); además, su tipo determina si conseguiremos buenas velocidades de refresco de pantalla o no. Los tipos más comunes son:
    • DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas características; refrescos máximos entorno a 60 Hz.
    • EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja. Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores y 25 ns las mejores.
    • VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy buenas características.
    • MDRAM: un tipo de memoria no muy común, pero de alta calidad.
    • SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas prestaciones. La SGRAM es SDRAM especialmente adaptada para uso gráfico, en teoría incluso un poco mas rápida.
    Conectores: PCI, AGP

    La tarjeta gráfica, como añadido que es al PC, se conecta a éste mediante un slot o ranura de expansión. Muchos tipos de ranuras de expansión se han creado precisamente para satisfacer a la ingente cantidad de información que se transmite cada segundo a la tarjeta gráfica.
    • ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto llegamos a tarjetas con un cierto grado de aceleración resulta insuficiente. Usado hasta las primeras VGA "aceleradoras gráficas", aquellas que no sólo representan la información sino que aceleran la velocidad del sistema al liberar al microprocesador de parte de la tarea gráfica mediante diversas optimizaciones.
    • VESA Local Bus: más que un slot un bus, un conector íntimamente unido al microprocesador, lo que aumenta la velocidad de transmisión de datos. Una solución barata usada en muchas placas 486, de buen rendimiento pero tecnológicamente no muy avanzada.
    • PCI: el estándar para conexión de tarjetas gráficas (y otros múltiples periféricos). Suficientemente veloz para las tarjetas actuales, si bien algo estrecho para las 3D que se avecinan.
    • AGP: tampoco un slot, sino un puerto (algo así como un bus local), pensado únicamente para tarjetas gráficas que transmitan cientos de MB/s de información, típicamente las 3D.
    Adecuación al uso del ordenador

    Evidentemente, no es lo mismo elegir una tarjeta gráfica para trabajar en Word en un monitor de 15" que para hacer CAD en uno de 21". Nótese que siempre hago referencia al monitor con el que van a trabajar, porque una tarjeta muy buena no puede demostrarlo en un mal monitor, ni a la inversa.

    • Juegos y CAD en 3D: con micros especiales para 3D, con mucha memoria (entre 8 y 32 MB), generalmente de marca y preferiblemente AGP. Por ejemplo, las tarjetas basadas en chips TNT2 o Voodoo3.
    • Imágenes y CAD en 2D: con chips de 64 ó 128 bits, memorias ultrarrápidas, capaces de llegar a 1600x1200 puntos a 70 Hz o más, con 4 MB o más. Cualquiera con un superchip, SGRAM/SDRAM y un RAMDAC de 225 MHz o más.





    f) Monitor

    Evidentemente, es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).
    Si alguna vez se ha enfrentado al manual de su monitor (para lo que demasiadas veces hace falta saber inglés, alemán o japonés, ya que rara vez vienen en otro idioma), habrá encontrado un galimatías impresionante sobre Hz, MHz, Usted intuye que eso tiene que ver con la calidad del aparato, pero ¿qué significa? Vamos a intentar explicarlo.

    Resolución (resolution)

    Se trata del número de puntos que puede representar el monitor por pantalla, en horizontal x vertical. Así, un monitor cuya resolución máxima sea de 1024x768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una, probablemente además de otras resoluciones inferiores, como 640x480 u 800x600.

    Cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen en pantalla, y mayor será la calidad (y por consiguiente el precio) del monitor. La resolución debe ser apropiada además al tamaño del monitor; es normal que un monitor de 14" ó 15" no ofrezca 1280x1024 puntos, mientras que es el mínimo exigible a uno de 17" o superior. La siguiente tabla ilustra este tema:

    Tamaño monitor Resolución máxima exigible (no entrelazada) Resolución de trabajo recomendada
    14" 1024x768 (monitores nuevos) 640x480
    15" 1024x768 800x600
    17" 1280x1024 1024x768
    19" 1600x1200 1152x864
    21" 1600x1200 1280x1024

    Los valores recomendados para trabajar son los más cómodos, los más ergonómicos, que son los apropiados para tareas generales como las ofimáticas. Para otras más específicas como CAD, o en general cuando no nos importa forzar un poco más la vista, conviene pasar al inmediatamente superior; por ejemplo, en monitores de 19" se puede usar una resolución de 1600x1200 sin mayores problemas. La resolución está estrechamente relacionada con el número de colores presentados, relacionado todo ello con la cantidad de memoria de la tarjeta gráfica.
    Refresco de pantalla

    También llamada Frecuencia de Refresco Vertical. Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en Hz (hertzios) y debe estar por encima de 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.

    Antiguamente los monitores sólo podían presentar imágenes con unos refrescos determinados y fijos, por ejemplo los monitores CGA o EGA y algunos VGA; hoy en día todos los monitores son multiscan, es decir, que pueden presentar varios refrescos dentro de un rango determinado.

    Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por lo que debemos conocer sus capacidades a fondo, para lo cual lo mejor es leer con detenimiento el manual o mirar otro parámetro denominado Frecuencia Horizontal, que debe ser lo mayor posible, entre unos 30 a 80 KHz. Por ejemplo, un monitor en que la frecuencia horizontal sea de 30 a 65 KHz dará sólo 60 Hz a 1600x1200 puntos, mientras que uno en que sea de 30 a 90 dará 75 o más.

    Tamaño de punto (dot pitch)

    Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.

    Lo mínimo exigible en este momento es que sea de 0,28 mm, no debiéndose admitir nada superior como no sea en monitores de gran formato para presentaciones, donde la resolución no es tan importante como el tamaño de la imagen.

    Para CAD o en general usos a alta resolución debe ser menor de 0,28 mm, idealmente de 0,25 mm (o menos). De todas formas, el mero hecho de ser inferior a 0,28 mm ya indica una gran preocupación del fabricante por la calidad del monitor. Como ejemplo cabe destacar los monitores Sony, los afamados Triniton, que pasan por ser lo mejor del mercado tienen todos un dot pitch máximo de 0,25 mm.

    Controles y conexiones

    Aunque se va cada vez más al uso de monitores con controles digitales, en principio no debe ser algo determinante a la hora de elegir un monitor, si bien se tiende a que los monitores con dichos controles sean los más avanzados de la gama.

    Una característica casi común a los monitores con controles digitales son los controles OSD (On Screen Control, controles en pantalla). Son esos mensajes que nos indican qué parámetro estamos cambiando y qué valor le estamos dando. Son útiles, pero en absoluto imprescindibles (ni depende la calidad del monitor de incluir dicho sistema o no).

    Lo que sí suelen tener algunos monitores digitales (no todos) son memorias de los parámetros de imagen (tamaño, posición...), por lo que al cambiar de resolución no tenemos que reajustar dichos valores, lo cual puede ser bastante engorroso.

    En cuanto a los controles en sí, los imprescindibles son: tamaño de la imagen (vertical y horizontal), posición de la imagen, tono y brillo. Son de agradecer los de "efecto barril" (para mantener rectos los bordes de la imagen), control trapezoidal (para mantenerla rectangular) y degauss magnético o desmagnetización.

    Por lo que respecta a las conexiones, lo inexcusable es el típico conector mini D-sub de 15 pines; en monitores de 17" o más es interesante que existan además conectores BNC, que presentan la ventaja de separar los tres colores básicos. De cualquier modo, esto sólo importa si la tarjeta gráfica también los incorpora y si la precisión en la representación del color resulta determinante en el uso del monitor.

    Hoy en día algunos monitores pueden incorporar una bahía USB, para la conexión de este tipo de periféricos. Resulta algo llamativo, pero para eso ya está la placa base; nunca lo tome como una auténtica ventaja.




    Multimedia

    Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de vídeo. Esto resulta interesante cuando se trata de un monitor de 15" ó 17" cuyo uso vaya a ser doméstico, para juegos o videoconferencia.

    Sin embargo, no nos engañemos: un monitor es para ver, no para oír. Ni la calidad de sonido de dichos altavoces es la mejor posible, ni su disposición la más adecuada, ni es mayor la calidad de un monitor con dichos aditamentos. Si lo que quiere (y debería quererlo) es un buen monitor, primero mire la calidad de imagen y luego estos extras; tenga en cuenta que unos altavoces de calidad media y potencia.

    La elección del monitor

    En líneas generales podríamos decir que existen 4 tipos principales de monitores, teniendo en cuenta que en la actualidad los de 14" no son en absoluto recomendables para ningún uso:

    Grupo Tamaño Res. recomendada Res. máxima Dot pitch
    Económicos (ofimática, juegos) 15" 800x600 a 75 Hz 1024x768 a 60 Hz 0,28
    Medios (juegos, uso general) 15" 800x600 a 80 Hz 1280x1024 a 60 Hz 0,28 a 0,25
    17" 1024x768 a 75 Hz 1280x1024 a 60 Hz 0,28
    Avanzados (uso general, CAD) 17" 1152x864 a 75 Hz 1600x1200 a 60 Hz 0,27 a 0,22
    Excepcionales (CAD, imágenes) 19"/21" 1280x1024 a 85 Hz 1600x1200 a 70 Hz 0,27 a 0,22

    Evidentemente, aparte del uso al que va a ser destinado el monitor, el auténtico factor limitante es el propio bolsillo.

    Pantallas portátiles

    Se basan en tecnologías de cristal líquido (LCD), parecidas a las de los relojes de pulsera digitales pero mucho más avanzadas.

    Una de las diferencias más curiosas respecto a los monitores "clásicos" es que el tamaño que se indica es el real, no como en éstos. Mientras que en un monitor clásico de 15" de diagonal de tubo sólo un máximo de 13,5" a 14" son utilizables, en una pantalla portátil de 13,3" son totalmente útiles, así que no son tan pequeñas como parece.

    Otra cosa que les diferencia es que no emiten en absoluto radiaciones electromagnéticas dañinas, por lo que la fatiga visual y los posibles problemas oculares se reducen.

    En la actualidad coexisten dos tipos:
    • Dual Scan (DSTN): ya no muy utilizadas, razonablemente buenas pero dependen de las condiciones de iluminación del lugar donde se esté usando el portátil.
    • HPA: una variante moderna de las anteriores, de contraste ligeramente superior, pero ojo: sólo ligeramente superior, sin duda peor que las TFT.
    • Matriz Activa (TFT): esta opción encarece el portátil, pero permite una visualización perfecta sean cuales sean las condiciones de iluminación exteriores.
    Por lo demás, en todos los casos las imágenes se ven mejor de frente que de lado, llegando a desaparecer si nos escoramos mucho, aunque en los portátiles modernos este ángulo de visión es muy alto, hasta unos 160º (el máximo es 180º, más significaría poder ver la pantalla desde la parte de atrás).


    Este apunte fue enviado por su autor en formato DOC (Word). Para poder visualizarlo correctamente (con imágenes, tablas, etc) haga click aquí o aquí si desea abrirla en ventana nueva.


    Votar

    Ingresar una calificación para del 1 al 10, siendo 10 el máximo puntaje.

    Para que la votación no tenga fraude, solo se podrá votar una vez este recurso.

    Comentarios de los usuarios


    Agregar un comentario:


    Nombre y apellido:

    E-Mail:

    Asunto:

    Opinión:



    Aún no hay comentarios para este recurso.
     
    Sobre ALIPSO.COM

    Monografias, Exámenes, Universidades, Terciarios, Carreras, Cursos, Donde Estudiar, Que Estudiar y más: Desde 1999 brindamos a los estudiantes y docentes un lugar para publicar contenido educativo y nutrirse del conocimiento.

    Contacto »
    Contacto

    Teléfono: +54 (011) 3535-7242
    Email:

    Formulario de Contacto Online »