En los últimos meses hemos visto una creciente cantidad de gadgets equipados con una nueva generación de dispositivos de almacenamiento, conocidos como SSD (Solid-State Drive – Unidades de Estado Sólido) y que prometen desplazar, o por lo menos combatir, a los actuales discos duros a los que estamos acostumbrados. Situación actual: Discos duros convencionales. Los HDD (Hard Disk Drive – Unidad de disco duro). Memoria NAND Flash. SSD, Memoria NAND Flash a gran escala. De vuelta al mundo real: SSDs comerciales. Ventajas de los SSD por sobre los HDD. Desventajas de los SSD contra los HDD. La promesa a futuro de los SSD. Todos sabemos que los ordenadores se vuelven cada vez mas y mas rápidos, evolucionando a un ritmo sorprendente. Sin embargo, existe un obstáculo a la hora de mejorar el rendimiento, la unidad de disco duro. Aunque los avances en tecnología de discos duros, tales como la grabación magnética perpendicular, han conseguido que se obtengan prestaciones en los discos de 7200RPM similares a las de los discos de 10,000RPM, los discos SSD ofrecen muchas y mejores características que estos.
Las unidades de estado solido (Solid State Drives, SSD) han empezado a instalarse de serie en algunos equipos nuevos y probablemente empezaremos a ver esto como una tendencia creciente a medida que se reduzcan los precios de estas unidades.
Los discos SSD usan memoria flash NAND no volátil (los datos permanecen incluso cuando no tienen corriente) y son, en genral, considerablemente más rápidos en comparación a sus homólogos mecánicos. Digo en general, porque estas unidades poseen velocidades de escritura aleatoria más lentas que las tradicionales, debido a implicaciones técnicas propias de este tipo de memorias. Otra de las ventajas de SSD es que estas unidades se benefician de un menor consumo de energía, tiempos increíbles de búsqueda/acceso (unos 0,2 mseg de acceso aleatorio en comparación con los aproximados 8ms + latencia de un disco típico de 7200 RPM), no necesitan tiempo de "spin up" (La cantidad de tiempo necesaria para conseguir la velocidad óptima de trabajo del disco cuando este arranca desde cero), poseen una menor producción de calor y son mas silenciosos y más resistentes que un disco duro estándar al no poseer elementos móviles.
Son estas ultimas características las que mas beneficiarán a los usuarios, móviles sobre todo, de SSDs: duración de la batería mas larga y menos producción de calor. Y lo que es más importante, sus datos estarán mucho mas seguros. Así es, es posible romper el ordenador o la placa base, pero no tenemos por qué preocuparnos, ya que nuestros preciados datos continuarán a salvo. Visto esto, la tecnología SSD seria perfecta, si no fuera por los elevados precios que hoy por hoy tienen estos discos.
En contrapartida, al igual que todas las memorias NAND, las SSD tienen ciclos de escritura limitados. Las memorias NAND que podríamos encontrarnos en los actuales discos SSDs podrían realizar quizá 1 millón de escrituras, después de los cuales nuestros datos no estarán seguros y bloques de memoria al azar pueden dejar de responder a las peticiones de escritura. Esto significaría que los discos SSD sólo durarían sobre un año para los usuarios avanzados y no más de 3 para un usuario medio. Que quedo claro que estos datos son pura especulación basada en la experiencia con otros dispositivos flash. Aunque seria lógico pensar que junto al desarrollo de esta tecnología se estará mejorando la vida util de estas unidades, por ejemplo, parece ser algunos fabricantes de SSD como Adtron están ofreciendo 3 años de garantía en sus productos, lo que supondría una prueba de la mejora de los modernos chips flash.
Sin embargo, el tiempo de vida de estas unidades dependera en gran medida del tipo de SSD y del tipo de uso que le demos, pero... ¿nos arriesgaríamos a ser los primeros en probar a montar una unidad SSD en nuestro equipo?.
Las unidades de estado sólido puede ser la última novedad, pero los consumidores no las compran
Apple MacBook ofrece a los compradores del equipo Air la opción de adquirir el portátil ultraligero con una unidad de estado sólido en lugar de los más típicos de disco duro. Pero el almacenamiento de estado sólido es tan caro que sólo algunos clientes pueden adquirirlo y, dicen los expertos, no será una alternativa asequible a la unidad de disco duro de almacenamiento durante muchos años.
"En este momento, la corriente principal de portátiles está todavía con unidades de disco", dice Joni Clark, director senior de marketing de producto de Seagate, una compañía que fabrica discos duros. Si bien las unidades de estado sólido son adecuados para productos para acceso a internet y los reproductores de música, las unidades de disco duro estarán todavía en los ordenadores portátiles tradicionales por muchos años más."
Los SSDs almacenan los datos sobre "chips" de memoria no volátil, también conocidos como chips de memoria flash, que son similares a los chips de RAM utilizada para la memoria de las computadoras, salvo que no se pierden datos cuando la alimentacióón eléctrica se desconecta. En comparación con los unidades de disco duro más tradicionales, o HDD, que almacenan los datos sobre platos imanados que giran, SSDs son más rápidos y menos susceptibles a daños de golpes o vibraciones, porque no tienen partes móviles. También son mucho más caros que los discos duros. Por ejemplo, para el precio que paga por el cambio de un MacBook Air estándar de 80 GB de disco duro a uno de 64 GB de estado sólido ($ 1300), se puede comprar un nuevo MacBook.
Es la misma historia de otros fabricantes de portátiles. Añadir una SSD de 64 GB a un portátil Dell que normalmente viene con una unidad de disco de 128 GB, supone una cantidad extra de gastos de 1000. Del mismo modo, los cargos en Alienware son de $ 900 a pagar un SSD de 64 GB, para un portátil que normalmente viene con un disco duro de 320 GB.
Aunque Seagate tiene interés en la viabilidad de la tecnología de disco duro, otros expertos confirman que las unidades de disco duro no están en peligro de ser sustituidos por discos de estado sólido, a pesar de la creciente utilización de este último en mininotebooks y otros portátiles. De hecho, el mercado de los HDD está siendo mejor que nunca, y se prevé que aportará cerca de 9.3 millones de dólares en ingresos en todo el mundo en 2007, según la firma de investigación de mercado iSuppli. iSuppli llegó a la siguiente conclusión, en un informe de enero. "La amenaza de las unidades de estado sólido utilizando (memoria flash), en lugar de los medios de comunicación tradicionales no ha paralizado las ventas o la rentabilidad para la industria del disco duro."
En teoría, en la comparativa, la falta de capacidad de los sistemas de almacenamiento basados en flash no es negativo, pues se supone que el carácter de "fino y ligero" de esas computadoras portátiles, ahce que se posicionen como artículos de lujo para los profesionales de alto rango, no son para sustituciones ordinarias el trabajo primordial de estos equipos. Pero hasta el momento, los portátiles ultraligeros siguen siendo un pequeño nicho dentro de un mercado global mucho más grande de "notebooks", pues dichos precios exorbitantes disuaden de su compra. Incluso si los precios de los SSDs bajaran y subiera la capacidad (lo que sin duda se dará), las unidades de disco tradicionales es probable que siga la misma tendencia, lo que significa que el diferencial de precios se mantendrá.
Por eso no es de sorprender que los fabricantes de discos duros como Seagate todavía son escépticos con respecto a la disposición del consumidor a gastar más dinero simplemente por el privilegio de tener una unidad de estado sólido con capacidad considerablemente menor, un poco más rápida y más fiable. De hecho, el estudio de Gartner sugiere que el segmento de más rápido crecimiento del mercado, el de portátiles seguirá dándose el uso de discos duros convencionales y en la sustitución de los ordenadores de sobremesa también. Y mientras que las unidades de estado sólido ofrecen ahorro de energía superior - un importante indicador para los portátiles - los elevados precios de los discos significa que su popularidad será limitada. Para nosotros, es de más interés aumentar as densidades de las superficies y satisfacer las necesidades del consumidor. Y actualmente la mejor forma de hacerlo es con los discos de rotsción convencionales."
La conclusión es que los consumidores están votando a favor de espacio de almacenamiento más barato y mejor. En otras palabras, el estado sólido tiene un largo recorrido antes de que sea una legítima amenaza para las unidades de disco duro.
Una unidad de estado sólido o SSD (del inglés solid state drive) es un dispositivo de almacenamiento de datos que usa memoria no volátil tales como flash, o memoria volátil como la SDRAM, para almacenar datos, en lugar de los platos giratorios encontrados en los discos duros convencionales. Aunque técnicamente no son discos a veces se traduce erróneamente en español la 'D' de SSD como disk cuando en realidad representa la palabra drive, que podría traducirse como unidad o dispositivo.
Chasis abierto de un disco duro tradicional de 2.5" (izquierda). Interior de un dispositivo de estado sólido (centro). Aspecto de un dispositivo SSD indicado especialmente para ordenadores portátiles (derecha).
Definición
Una unidad de estado sólido es un dispositivo de almacenamiento secundario hecho con componentes electrónicos de estado sólido para su uso en computadoras en reemplazo de una unidad de disco duro convencional, como memoria auxiliar o para la fabricación de unidades híbridas compuestas por SSD y disco duro.
Consta de una memoria no volátil, en lugar de los platos giratorios y cabezal, que son encontrados en las unidades de disco duro convencionales. Sin partes móviles, una unidad de estado sólido pretende reducir drásticamente el tiempo de búsqueda, latencia y otros, esperando diferenciarse positivamente de sus primos hermanos los discos duros.
Al ser inmune a las vibraciones externas, lo hace especialmente apto para su uso en computadoras móviles (instaladas p.ej. en aviones, automotores, computadoras portátiles, etc.).
Diseño y funcionamiento
Los SSD basados en memoria volátil como la SDRAM están categorizados por su rápido acceso a datos, menos de 0.01 milisegundos y son usados primariamente para acelerar aplicaciones que de otra manera serían frenados por la latencia de los discos duros.
Los SSD basados en DRAM típicamente incorporan una batería interna y sistemas de respaldo de disco para asegurar la persistencia de datos. Si la potencia se pierde por cualquiera razón, la batería podría mantener la unidad encendida lo suficiente como para copiar todos los datos de la memoria RAM al disco de respaldo. Después de la restauración de energía, los datos se vuelven a copiar desde el disco de respaldo a la RAM y el SSD continua su operación normalmente.
Sin embargo, la mayoría de los fabricantes usan memoria flash no volátil para crear alternativas más compactas y fuertes que los SSD basados en DRAM. Estos SSD basados en flash, también conocidos como discos flash, no requieren baterías, permitiendo a los fabricantes replicar tamaños estándar del disco duro (1'8 pulgadas, 2'5 pulgadas. y 3'5 pulgadas). Además, la no volatilidad permite a los SSD flash mantener memoria incluso tras una perdida repentina de energía, asegurando la permanencia de los datos. Al igual que los SSD DRAM, los SSD flash son extremadamente rápidos al no tener partes móviles, reduciendo ostensiblemente el tiempo de búsqueda, latencia y otros retardos electromecánicos inherentes a los discos duros convencionales. Aunque los SSD flash son significativamente más lentos que los SSD DRAM.
Las unidades de estado sólido son especialmente útiles en una computadora que ya llegó a máximo de memoria RAM. Por ejemplo, algunas arquitecturas x86 tienen 4GB de limite, pero este puede ser extendido colocando un SSD como archivo de intercambio (swap). Estos SSD no proporcionan tanta rapidez de almacenamiento como la memoria RAM principal debido al cuello de botella del bus que los conecta, pero aun así mejoraría el rendimiento de colocar el archivo de intercambio en una unidad de disco duro tradicional
Ventajas y desventajas
Los dispositivos de estado sólido basados en Flash tienen varias ventajas únicas:
Arranque más rápido.
Gran velocidad de escritura
Mayor rapidez de lectura - Incluso más de 10 veces más que los discos duros tradicionales más rápidos gracias al RAID.
Baja latencia de lectura y escritura, cientos de veces más rápido que los discos mecánicos.
Lanzamiento y arranque de aplicaciones en menor tiempo - Resultado de la mayor velocidad de lectura y especialmente del tiempo de búsqueda. Pero solo si la aplicación reside en flash y es más dependiente de la velocidad de lectura que de otros aspectos.
Menor consumo de energía y producción de calor - Resultado de no tener partes mecánicas.
Sin ruido - La misma carencia de partes mecánicas los hace completamente inaudibles.
Mejorado el tiempo medio entre fallos hasta 2 millones de horas, muy superior al de los discos duros que no llegan a 1 millón
Seguridad - permitiendo una muy rápida "limpieza" de los datos almacenados.
Rendimiento deterministico - a diferencia de los discos duros mecánicos, el rendimiento de los SSD es constante y deterministico a través del almacenamiento entero. El tiempo de "búsqueda" constante, y el rendimiento no se deteriora mientras el medio se llena. (Véase Desfragmentación)
Menor peso y (dependiendo del tipo) tamaño.
Resistente - Soporta golpes y vibraciones sin estropearse y sin descalibrarse como pasaba con los antiguos Discos Duros
Borrado más seguro e irrecuperable de Datos
Los dispositivos de estado sólido basados en flash tienen también varias desventajas:
Precio - Los precios de las memorias flash son considerablemente más altos, y la principal razón de su baja venta.
Menor recuperación - Después de un fallo mecánico los datos son completamente perdidos pues la celda es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son frecuentemente recuperables usando ayuda de expertos.
Vulnerabilidad contra ciertos tipo de efectos - Incluyendo pérdida de energía abrupta (especialmente en los SSD basado en DRAM), campos magnéticos y cargas estáticas comparados con los discos duros normales (que almacenan los datos dentro de una Jaula de Faraday).
Capacidad - A día de hoy, tienen menor capacidad que la de un disco duro convencional que llega a los 2,5 Terabytes
Antiguas Desventajas ya solucionadas:
Degradación de rendimiento al cabo de mucho uso en las memorias NAND (solucionado con el sistema TRIM)
Menor velocidad en operaciones I/O secuenciales. (Ya se ha conseguido una velocidad similar)
Bueno amigos
Hoy me levante y dije eh hablado mucho de los discos duros y me dije a mi mismo y porque no mejor un video :) entonces manos a la obra
En este video verán que ase un ruedo mas o menos fuerte pero es debido ah que la aguja esta rayando al disco en los discos duros que trabajan en su maquinas por lo general no ocurre ello ya que simplemente están muy cerca, claro esta que si comienzan a mover el computador mientras esta realizando una lectura o escritura realmente terminaran rallando el disco duro y eso si trae mucha consecuencias
Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5 MB, fabricado en 1979
A principios los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción, de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro 1956 fue el IBM 350 modelo 1, presentado con la computadora Ramac I: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas al vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente diferente entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física, por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60% anual en la década de 1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado los 40.000 MB o 40 gigabytes (GB). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de un terabyte (TB) o millón de megabytes.
En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia.
Presente y futuro
Actualmente la nueva generación de discos duros utilizan la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía. Se está empezando a observar que la Unidad de estado sólido es posible que termine sustituyendo al disco duro a largo plazo. También hay que añadir los nuevos discos duros basados en el tipo de memorias Flash, que algunas empresas, como ASUS, incorporó recientemente en sus modelos. Los mismos arrancan en 4 GB a 512 GB.
Son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy fiables y casi indestructibles. Un nuevo formato de discos duros basados en tarjetas de memorias. Sin embargo su costo por GB es aún muy elevado ya que el coste de un HD de 160 GB es equivalente a un SSD de 8 GB.
El concepto de RAID fue desarrollado por un grupo de científicos en la Universidad de California en Berkley en 1987. Los científicos investigaban usando pequeños HD unidos en un arreglo (definido como dos o mas HD agrupados para aparecer como un dispositivo único para el servidor) y compararon el desempeño y los costos de este tipo de configuración de almacenamiento con el uso de un SLED (Single Large Expensive Disk), común en aplicac iones de MainFrames.
Su conclusión fue que los arreglos de Hd pequeños y poco costosos ofrecían el mismo o un mejor desempeño que los SLED. Sin embargo, dado que había mas discos usados en un arreglo el MTBDL (Mean Time Be fore Data Loss) -calculado dividiendo el MTBF (Mean Time Between Failures) por el número de discos en el arreglo- sería inaceptablemente bajo.
Los problemas entonces fueron como manejar el MTBF y prevenir que la falla de un solo HD causara pérdida de datos en el arreglo. Para mejorar esto, propusieron 5 tipos de arreglos redundantes, Definiéndolas como RAID Nivel 1 hasta 5. El nivel del RAID es Simplemente la arquitectura que determina como se logra la redundancia y como los datos están distribuidos a través de los HD del arreglo.
Adicional al RAID 1 hasta 5, una configuración de arreglo no redundante que emplea partición de datos (esto es partir los archivos en bloques pequeños y distribuir estos bloques a través de los HD del arreglo ), esto es conocido como RAID 0.
DEFINICIONES:
RAID 0
También llamado partición de los discos, los datos son distribuidos a través de discos paralelos. RAID 0 distribuye los datos rápidamente a los usuarios, pero no ofrece mas protección a fallas de hardware que un simple disco.
RAID 1
También llamado Disk mirroring provee la mas alta medida de protección de datos a través de una completa redundancia. Los datos son copiados a dos discos simultáneamente. La disponibilidad es alta pero el costo también dado que los usuarios deben comprar dos veces la capacidad de almacenamiento que requieren.
RAID 0/1
Combina Disk mirroring y partición de datos. El resultado es gran disponibilidad al mas alto desempeño de entrada y de salida para las aplicaciones de negocios mas criticas. A este nivel como en el RAID 1 los discos so n duplicados. Dado que son relativamente no costosos, RAID 0/1 es una alternativa para los negocios que necesitan solamente uno o dos discos para sus datos, sin embargo, el costo puede convertirse en un problema cuando se requieren mas de dos discos.
RAID 3
Logra redundancia sin mirroring completo. El flujo de los datos es particionado a través de todos los HD de datos en el arreglo. La información extra que provee la redundancia esta escrito en un HD dedicado a la parida d. Si cualquier HD del arreglo falla, los datos perdidos pueden ser reconstruidos matemáticamente desde los miembros restantes del arreglo. RAID 3 es especialmente apropiado para procesamiento de imagen, colección de datos científicos , y otras aplicaciones en las cuales grandes bloques de datos guardados secuencialmente deben ser transferidos rápidamente
RAID 5
Todos los HD en el arreglo operan independientemente. Un registro entero de datos es almacenado en un solo disco, permitiendo al arreglo satisfacer múltiples requerimientos de entrada y salida al mismo tiempo. La informaci&oa cute;n de paridad esta distribuida en todos los discos, aliviando el cuello de botella de acceder un solo disco de paridad durante operaciones de entrada y salida concurrentes. RAID 5 está bien recomendado para procesos de transacciones on-line, au tomatización de oficinas, y otras aplicaciones caracterizadas por gran numero de requerimientos concurrentes de lectura. RAID 5 provee accesos rápidos a los datos y una gran medida de protección por un costo mas bajo que el Disk Mirro ring
RAID 10
La información se distribuye en bloques como en RAID-0 y adicionalmente, cada disco se duplica como RAID-1, creando un segundo nivel de arreglo. Se conoce como "striping de arreglos duplicados". Se requieren, dos canales, dos discos para cada canal y se utiliza el 50% de la capacidad para información de control. Este nivel ofrece un 100% de redundancia de la información y un soporte para grandes volúmenes de datos, donde el precio no es un factor importan te. Ideal para sistemas de misión crítica donde se requiera mayor confiabilidad de la información, ya que pueden fallar dos discos inclusive (uno por cada canal) y los datos todavía se mantienen en línea. Es apropiado ta mbién en escrituras aleatorias pequeñas.
RAID 30
Se conoce también como "striping de arreglos de paridad dedicada". La información es distribuida a través de los discos, como en RAID-0, y utiliza paridad dedicada, como RAID-3 en un segundo canal. Proporciona u na alta confiabilidad, igual que el RAID-10, ya que también es capaz de tolerar dos fallas físicas de discos en canales diferentes, manteniendo la información disponible. RAID-30 es el mejor para aplicaciones no interactivas, tales co mo señales de video, gráficos e imágenes que procesan secuencialmente grandes archivos y requieren alta velocidad y disponibilidad.
RAID 50
Con un nivel de RAID-50, la información se reparte en los discos y se usa paridad distribuida, por eso se conoce como "striping de arreglos de paridad distribuida". Se logra confiabilidad de la información, un buen ren dimiento en general y además soporta grandes volúmenes de datos. Igualmente, si dos discos sufren fallas físicas en diferentes canales, la información no se pierde. RAID-50 es ideal para aplicaciones que requieran un almacenami ento altamente confiable, una elevada tasa de lectura y un buen rendimiento en la transferencia de datos. A este nivel se encuentran aplicaciones de oficina con muchos usuarios accediendo pequeños archivos, al igual que procesamiento de transaccion es.
Máximas y mínimas cantidades de HD que se pueden ordenar para los diferentes niveles de RAID
Tipos de conexión
Si hablamos de disco rígido podemos citar a los distintos tipos de conexión que poseen los mismos con la placa madre, es decir pueden ser SATA, IDE o SCSI.
IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta hace poco, el estándar principal por su versatilidad y relación calidad/precio.
SCSI: Son discos duros de gran capacidad de almacenamiento . Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2).
Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que los vuelve más rápidos.
SATA (Serial ATA): Nuevo estándar de conexión que utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. En la actualidad hay dos versiones, SATA 1 de hasta 1,5 Gigabits por segundo (192 MB/s) y SATA 2 de hasta 3,0 Gb/s (384 MB/s) de velocidad de transferencia.
Factor de forma
El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés).
La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas.
8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).
En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las mismas dimensiones y siendo compatible con el interfaz de 8 pulgadas de las disqueteras. Había dos versiones disponibles, la de la misma altura y la de la mitad (58,7mm).
5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo: 82,5 mm máximo.
Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64 pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó a finales de los 90'.
3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas).
Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4mm (1 pulgada), o "low-profile" que es usado en la mayoría de los discos duros.
2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas).
Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor capacidad tienen una altura de 12,5 mm.
1,8 pulgadas: 54×8×71 mm.
Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las dimensiones indicadas y su uso se incrementa en reproductores de audio digital y su subnotebook. La variante original posee de 2GB a 5GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados normalmente en iPods y discos duros basados en MP3.
1 pulgadas: 42,8×5×36,4 mm.
Este factor de forma se introdujo en 1999 por IBM y Microdrive, apto para los slots tipo 2 de compact flash, Samsung llama al mismo factor como 1,3 pulgadas.
0,85 pulgadas: 24×5×32 mm.
Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares, incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles de 4G. Toshiba actualmente vende versiones de 4GB (MK4001MTD) y 8GB (MK8003MTD) 5 y tienen el Record Guinness del disco duro más pequeño.
Los principales fabricantes suspendienron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas.
El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad histórica.
Estructura lógica
Dentro del disco se encuentran:
El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones.
Las particiones, necesarias para poder colocar los sistemas de archivos.
Integridad
Debido al extremadamente cerrado espacio entre los cabezales y la superficie del disco, alguna contaminación de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la perdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre fabricación.
Cabezal del disco duro
El eje del sistema del disco duro depende de la presión del aire dentro del recinto para sostener los cabezales y su correcta altura mientras el disco gira. Un disco duro requiere una cierta línea de presiones de aire para funcionar correctamente. La conexión al entorno exterior y la presión se produce a través de un pequeño agujero en el recinto (cerca de 0,5mm de diámetro) normalmente con un filtro en su interior (filtro de respiración, ver abajo). Si la presión del aire es demasiado baja, entonces no hay suficiente impulso para el cabezal, que se acerca demasiado al disco, y se da el riesgo de fallos y perdidas de datos. Los discos fabricados especialmente son necesarios para operaciones de gran altitud, sobre 3000 m (10000 pies). A tener en cuenta que los aviones modernos tienen una cabina presurizada cuya altitud de presión no excede normalmente los 2600 m (8500 pies). Por lo tanto los discos duros ordinarios pueden ser usados de manera segura en los vuelos. Los discos modernos incluyen sensores de temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos (normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero. El aire dentro del disco operativo esta en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de recirculación interna para quitar algún contaminante que se hubiera quedado de su fabricación, alguna partícula o componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.
Cabezal de disco duro IBM sobre el plato del disco
Para los cabezales resistentes al magnetismo grandes (GMR) en particular, un incidente minoritario debido a la contaminación (que no se disipa la superficie magnética del disco) llega a dar lugar a un sobrecalentamiento temporal en el cabezal, debido a la fricción con la superficie del disco, y puede hacer que los datos no se puedan leer durante un periodo corto de tiempo hasta que la temperatura del cabezal se estabilice (también conocido como “aspereza térmica”, un problema que en parte puede ser tratado con el filtro electrónico apropiado de la señal de lectura).
Los componentes electrónicos del disco duro controlan el movimiento del accionador y la rotación del disco, y realiza lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan fallado.
Estructura Lógica De Los Discos Duros
Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos.
En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema operativo del Ms-Dos, sería la siguiente:
Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente
El Sector de Arranque : Al formatear un volumen, el sector de arranque se crea siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT).
La Tabla de Asignación de Ficheros (File Allocation Table) (FAT) : Si el DOS quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se corresponde con un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters, correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16 bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas de información.
Una o más copias de la FAT : El DOS permite a un programa de formateo crear no sólo una, sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias de la FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o borrar archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto por una de sus copias, para evitar la pérdida de datos.
El directorio Raíz : La cantidad máxima de entradas en el directorio raíz se limita por su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al volumen.
La Zona de Datos : Es la parte del disco duro en la que se almacena los datos de un archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.
Ventajas e Inconvenientes frente a otros sistemas de almacenamiento.
Floppys (Disquetes):
Ventajas:
- Bajo coste de fabricación.
- Standarización de los formatos; número de cabezas, sectores, cilindros.
- Es extraible y compatibilidad.
Inconvenientes:
Poca fiabilidad de los datos almacenadas.
Una escasa capacidad de almacenamiento.
Unidades de CD-ROM:
Ventajas:
- Velocidad de lectura similar a los Discos Duros.
- Gran capacidad a muy bajo coste.
- La cabeza lectora no va incorporada en el disco.
Inconvenientes:
- Es de sólo lectura.
- El disco únicamente reescribible una sola vez.
- El disco de CD-ROM no lleva los cabezales de lectura / escritura incorporados.
Streamers (Unidades de Cinta):
Ventajas:
- Seguridad en la grabación de los datos.
- Gran capacidad a bajo coste.
Inconvenientes:
- Los Discos duros son mucho más rápidos en lectura / escritura, ya que la cinta realiza una lectura secuencia, mientras que la cabeza lectura de los discos duros se posiciona en cualquier parte la superficie en tiempos casi despreciable
MEMORIA RAM
Ventajas:
- Mayor rapidez que los discos duros.
Inconvenientes:
- Elevado coste en relación a su capacidad.
- La información contenida en la memoria es volátil, mientras que el almacenamiento en discos duros es estática.
- La memoria de un ordenador es 100 veces menor que la capacidad de los discos duros.
Papel:
Ventajas:
- Portabilidad.
- Suele deteriorarse con más facilida que un disco duro.
Inconvenientes:
- No es ecológico,
- Las búsquedas son machismo más lentas.
- El elevado coste en comparación con la capacidad de las páginas de textos, documentos, etc. Que es capaz de almacenar un disco duro.
La aceleración del los nuevos disco IDE se basan en dos métodos:
• Con el control de flujo a través de IORDY (en referencia a la línea de bus ATA " Canal de e/s preparado" se acelera el control PIO. Gracias al control de flujo, la parte electrónica de la unidad de disco puede regular las funciones de transferencia de datos del microprocesador, y el disco duro puede comunicarse con el bus a mayor velocidad de manera fiable. El standard PIO modo 3 tiene una transferencia teórica máxima de 11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro PIO modo 5 promete hasta 33 Mbytes / seg.
• El otro método alternativo denominado FAST Multiword DMA con el controlador DMA (acceso directo a memoria) sustituye al procesador en el gobierno de las transferencias de datos entre el disco duro y la memoria del sistema. SSF define que el Modo 1 de transferencias DMA soporte velocidades internas de hasta 13,3 Mbps, lo que es equiparable a los resultados del control PIO en modo 3.
Los disco duros de hoy (especialmente los de mañana) se adentran en complicadas tecnologías y campos científicos (mecánica cuántica, aerodinámica, y elevadas velocidades de rotación). La combinación de estas tecnologías permite que la capacidad de los discos duros aumente cerca de un 60 % cada año; cada cinco años se multiplica por diez su capacidad. Los analistas esperan que este ritmo de crecimiento no se mantenga hasta finales de siglo. Para mejorar las posibilidades del disco duro hay que acercar los cabezales a la superficie del disco. Los cabezales pueden escribir y leer dominios magnéticos menores, cuanto menor sean éstos mayor densidad de datos posible de cada plato. Pero cuanto más cerca estén los cabezales, mayor será la probabilidad de colisión con la superficie. Una solución es recubrir el plato con materiales protectores, rediseñar las características aerodinámicas de los cabezales, etc. Además el paso de una mayor cantidad de datos por los cabezales exige perfeccionar los componentes electrónicos, e incluso puede obligar a ampliar la memoria caché integrada . Además no hay que olvidar que los dominios menores son estables a las temperaturas de funcionamiento normales. Y todo esto a un precio competitivo.
Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza nuevos materiales. Usa cabezales con mejor relación señal /ruido que los de tipo inductivo, separando los de lectura de los de escritura. Pueden trabajar con dominios magnéticos menores aumentando la densidad de almacenamiento. Además son menos sensibles al aumento de la velocidad permitiendo velocidades de rotación mayores. Sus inconvenientes son su dificultad y alto precio de fabricación, y su sensibilidad ante posibles cargas eléctricas. Se investiga en una mejora llamada GMR (MR Gigante) que emplea el efecto túnel de electrones de la mecánica cuántica. Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie magnética de los platos con materiales antiadherentes derivados del carbono. Esto junto con las técnicas de cabezales de grabación en proximidad, los TRI-PAD (cabezales trimorfos) y los de contacto virtual permiten acercar los cabezales hasta incluso entrar ocasionalmente en contacto con la superficie del plato.
A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo del cabezal respecto a la superficie, usando zonas de seguridad y cierres inerciales en las cabezas. Así no se necesita una preparación especial de la superficie del plato.
Cluster
Es una agrupación de sectores, su tamaño depende de la capacidad del disco. La siguiente tabla nos muestra esta relación.
MEDIDAS QUE DESCRIBEN EL DESEMPEÑO DE UN HD
Los fabricantes de HD miden la velocidad en términos de tiempo de acceso, tiempo de búsqueda, latencia y transferencia. Estas medidas también aparecen en las advertencias, comparaciones y en las especificaciones. Tiempo de acceso ( access time) Termino frecuentemente usado en discusiones de desempeño, es el intervalo de tiempo entre el momento en que un drive recibe un requerimiento por datos, y el momento en que un drive empieza a despachar el dato. El tiempo de acceso de un HD es una combinación de tres factores:
1- Tiempo de Búsqueda (seek time)
Es el tiempo que le toma a las cabezas de Lectura/Escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda variara en cada búsqueda. En la actualidad, el tiempo promedio de búsqueda para cualquier búsqueda arbitraria es igual al tiempo requerido para mirar a través de la tercera parte de las pistas. Los HD de la actualidad tienen tiempos de búsqueda pista a pista tan cortos como 2 milisegundos y tiempos promedios de búsqueda menores a 10 milisegundos y tiempo máximo de búsqueda (viaje completo entre la pista más interna y la más externa) cercano a 15 milisegundos .
2- Latencia (latency)
Cada pista en un HD contiene múltiples sectores una vez que la cabeza de Lectura/Escritura encuentra la pista correcta, las cabezas permanecen en el lugar e inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera se llama latencia. La latencia promedio es igual al tiempo que le toma al disco hacer media revolución y es igual en aquellos drivers que giran a la misma velocidad. Algunos de los modelos más rápidos de la actualidad tienen discos que giran a 10000 RPM o más reduciendo la latencia.
3- Command Overhead
Tiempo que le toma a la controladora procesar un requerimiento de datos. Este incluye determinar la localización física del dato en el disco correcto, direccionar al "actuador" para mover el rotor a la pista correcta, leer el dato, redireccionarlo al computador.
Transferencia
Los HD también son evaluados por su transferencia, la cual generalmente se refiere al tiempo en la cual los datos pueden ser leídos o escritos en el drive, el cual es afectado por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso. La mayoría de los HD actuales incluyen una cantidad pequeña de RAM que es usada como cache o almacenamiento temporal. Dado que los computadores y los HD se comunican por un bus de Entrada/Salida, el tiempo de transferencia actual entre ellos esta limitado por el máximo tiempo de transferencia del bus, el cual en la mayoría de los casos es mucho más lento que el tiempo de transferencia del drive.
COMO FUNCIONA UN DISCO DURO.
1. Una caja metálica hermética protege los componentes internos de las partículas de polvo; que podrían obstruir la estrecha separación entre las cabezas de lectura/escritura y los discos, además de provocar el fallo de la unidad a causa de la apertura de un surco en el revestimiento magnético de un disco. 2. En la parte inferior de la unidad, una placa de circuito impreso, conocida también como placa lógica, recibe comandos del controlador de la unidad, que a su vez es controlado por el sistema operativo. La placa lógica convierte estos comandos en fluctuaciones de tensión que obligan al actuador de las cabezas a mover estas a lo largo de las superficies de los discos. La placa también se asegura de que el eje giratorio que mueve los discos de vueltas a una velocidad constante y de que la placa le indique a las cabezas de la unidad en que momento deben leer y escribir en el disco. En un disco IDE (Electrónica de Unidades Integradas), el controlador de disco forma parte de la placa lógica. 3. Un eje giratorio o rotor conectado a un motor eléctrico hacen que los discos revestidos magnéticamente giren a varios miles de vueltas por minuto. El número de discos y la composición del material magnético que lo s recubre determinan la capacidad de la unidad. Generalmente los discos actuales están recubiertos de una aleación de aproximadamente la trimillonésima parte del grosor de una pulgada. 4. Un actuador de las cabezas empuja y tira del grupo de brazos de las cabezas de lectura/escritura a lo largo de las superficies de los platos con suma precisión. Alinea las cabezas con las pistas que forman círculos concéntricos sobre la superficie de los discos. 5. Las cabezas de lectura/escritura unidas a los extremos de los brazos móviles se deslizan a la vez a lo largo de las superficies de los discos giratorios del HD. Las cabezas escriben en los discos los datos procedentes del controlador de disco alineando las partículas magnéticas sobre las superficies de los discos; las cabezas leen los datos mediante la detección de las polaridades de las partículas ya alineadas. 6. Cuando el usuario o su software le indican al sistema operativo que lea o escriba un archivo, el sistema operativo ordena al controlador del HD que mueva las cabezas de lectura y escritura a la tabla de asignación de archivos de la unidad, o FAT en DOS (VFAT en Windows 95). El sistema operativo lee la FAT para determinar en que Cluster del disco comienza un archivo preexistente, o que zonas del disco están disponibles para albergar un nuevo archivo. 7. Un único archivo puede diseminarse entre cientos de Cluster independientes dispersos a lo largo de varios discos. El sistema operativo almacena el comienzo de un archivo en los primeros Cluster que encuentra enumerados como libres en la FAT. Esta mantiene un registro encadenado de los Cluster utilizados por un archivo y cada enlace de la cadena conduce al siguiente Cluster que contiene otra parte mas del archivo. Una vez que los datos de la FAT han pasado de nuevo al sistema operativo a través del sistema electrónico de la unidad y del controlador del HD, el sistema operativo da instrucciones a la unidad para que omita la operación de las cabezas de lectura/escritura a lo largo de la superficie de los discos, leyendo o escribiendo los Cluster sobre los discos que giran después de las cabezas. Después de escribir un nuevo archivo en el disco, el sistema operativo vuelve a enviar las cabezas de lectura/escritura a la FAT, donde elabora una lista de todos los Cluster del archivo.
La norma IDE fue desarrollada por Western Digital y Compaq Computers a partir de una interfaz de disco del AT original que IBM creó en 1984. Desde entonces se convirtió en la interfaz más utilizada en el entorno PC. A pesar de esto IDE presenta unas limitaciones debido a su dependencia de la BIOS y al diseño del que parte. Hace poco las limitaciones en el tamaño de los HD y la velocidad de transferencia no daban problemas, pero como se han mejorado los procesadores y han salido programas más complejos, ya se notan.
Entonces se hizo un mejoramiento de las normas IDE y surgió Enhanced IDE, por cierto la nomenclatura de estas normas son similares a las de SCSI. Así, partiendo de la interfaz establecido de IDE llamado ATA (AT Attachment) surge ATA-2 y ATAPI (ATA Packed Interfaz), que permite conectar unidades de CD-ROM a controladores ATA.
ATA-2 se encuentra en proceso de normalización, permite alcanzar 16.6 Mbps (según el tipo de periférico que prestan las E/S); según su esquema de translación de direcciones se pueden encontrar dos métodos en ATA-2:
- Mediante el tradicional sistema de cilindros/Cabezas/Sectores (CHS). De esta forma se transforman los parámetros de CHS de la Bios en los de la unidad. Como ventaja tiene su sencillez.
- Mediante LBA(Logical Block Address). Consiste en transformar los parámetros CHS en una dirección de 28 bits que puede ser usada por el sistema Operativo, los drives de los dispositivos, etc.
En ambos casos se necesita una BIOS extra para permitir superar la limitación de 528 Mb.
ATA (AT Attachment), dispositivo de AT. Es el dispositivo IDE que más se usa en la actualidad, por los que a veces se confunde con el propio IDE. Originalmente se creó para un bus ISA de 16 bits.
ATAPI (ATA PACKET INTAERFACE), Interfaz de paquete ATA. Es una extensión del protocolo ATA para conseguir una serie de comandos y registros que controlen el funcionamiento de un CD-ROM, es fácilmente adaptable para una cinta de Backup.
DMA (DIRECT MEMORY ACCESS), Acceso directo a memoria. Componente integrado en un periférico que libera al procesador en la tarea de transferir datos entre dispositivos y memoria. El acceso se realiza por bloque de datos.
PIO (PROGRAMABLE INPUT/OUTPUT), Entrada/Salida programable. Componente encargado de ejecutar las instrucciones dirigidas a los periféricos. A diferencia de la DMA requiere atención del procesador para su funcionamiento. Como contrapartida es mucho más sencillo y barato.
Controladoras
La interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. Define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, se denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere acceder, del formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la placa madre.
Se encuentran gobernados por una controladora y un determinado interface que puede ser:
ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s. Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo. Actualmente esta desfasado y ya no hay modelos de disco duro con este tipo de interface.
ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de utilizarse este interface y es difícil de encontrar.
IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y que usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por segundo. En principio, IDE era un término genérico para cualquier interface a nivel de sistema. La especificación inicial de este interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI pero con la desaparición de los ATs este interface desaparecerá para dejar paso al SCSI y el SCSI-2.
Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital introdujo el standard E-IDE (Enhanced IDE), que mejoraba la tecnología superando el límite de acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como contrapartida comercial a E-IDE, la empresa Seagate presento el sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En cualquier caso a los discos que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia. Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones:
El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que incorpora la unidad de disco.
El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección de 28 bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la unidad.
Debido a la dificultad que entraña la implemetación de la compatibilidad LBA en BIOS, muchos de los ordenadores personales de fabricación más reciente continúan ofreciendo únicamente compatibilidad con CHS. El techo de la capacidad que permite las solución CHS se sitúa en los 8,4 Gb, que por el momento parecen suficientes.
SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión paralela de 8 bits que consigue un valor máximo de transferencia de 5 Mbytes por segundo. Actualmente se puede oír hablar también de SCSI-2 que no es más que una versión actualizada y mejorada de este interface. Es el interface con más futuro, si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras, discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este interface debido a la falta de un estándar verdaderamente sólido.
Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes / seg.
Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador realmente no suele ser mas que un adaptador principal para conectar el disco al PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema, la diferencia entre ambos es:
INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador externo para conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces a nivel de dispositivo.
INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su sistema principal que pone funciones de control y separación de datos sobre el propio disco (y no en el controlador externo), SCSI e IDE son interfaces a nivel de sistema.
Distribución de la Información : Grabación y Acceso.
Para grabar información en la superficie, se siguen una serie de códigos, que transforman un patrón de bits en una secuencia de celdas con diferentes estados de magnetización.
Procesos de grabación
GCR (Group Coding Recording - Codificación de grupo de grabación) Es un proceso de almacenamiento en el que los bits se empaquetan como grupos y son almacenados bajo un determinado código.
ZBR (Zone Bit Recording) Es un proceso de almacenamiento que coloca más sectores sobre las pistas exteriores del disco que son más largas, pero mantienen un valor constante de rotación. Esta diseñado para colocar más datos sobre el disco, sólo puede usarse con interfaces inteligentes.
Proceso de Codificación
FM: Es la codificación más sencilla, consiste en la grabación de un cambio de flujo para cada uno, y el omitir el cambio de flujo para cada cero. Este procedimiento se puede realizar con una electrónica de control relativamente simple, pero tiene el inconveniente de que cada bit de datos consume dos cambios de flujo, limitando mucho la capacidad del disco.
MFM (Modified Frequency Modulation - Modulación de frecuencia modificada) Método de codificación magnética de la información que crea una correspondencia 1 a 1 entre los bits de datos y transiciones de flujo (cambios magnéticos) sobre un disco. Emplea una menor densidad de almacenamiento y presenta una velocidad más baja de transferencia que el RLL.
Esta tecnología es usada en los discos flexibles y en los primeros discos duros. Cada bit de datos es almacenado sobre una región física lo suficientemente grande para contener 2 posibles posiciones 00, 01 ó 10. Entre cada 2 bits de datos hay un bit que se llama de "reloj" y que se usa para validar las lecturas, así como para sincronizarlas. Este bit hace que sea uno cuando está situado entre 2 bits de datos a cero y se hace cero cuando está situado entre cualquier otra combinación de bits de datos. Así se hace imposible que se puedan leer más de 3 bits consecutivos con un valor de cero, o mas de un bit seguido a uno. Esto es cierto para todas las informaciones almacenadas en el disco excepto para las áreas de control del mismo cuyas marcas de comienzo de pista, sector y datos tienen 4 bits consecutivos a cero en su "adress mark". Evidentemente, estos sistemas, aunque fiables, son unos grandes consumidores de espacio ya que emplean prácticamente la mitad del espacio en bits de reloj.
RLL:(Run Length Limited - Longitud recorrido limitado) Método de codificar la información magnéticamente que usa GCR para almacenar bloques en vez de bits individuales de datos. Permite densidades mayores de almacenamiento y velocidades mas altas de transferencia que MFM. En la práctica, permite incrementar en un 50% la capacidad de un disco respecto al sistema de grabación MFM. Los métodos de grabación RLL utilizan un conjunto complejo de reglas para determinar el patrón de pulsos para cada bit basado en los valores de los bits precedentes. Este sistema se puede clasificar dependiendo de la distancia máxima y mínima de silencios entre dos pulsos, por ejemplo; el RLL 2,7 tiene una distancia mínima entre pulsos de 2 silencios y una máxima de 7.
Datos de control del disco
Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan determinados sectores que son defectuosos.
En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia.
Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son datos, existen zonas donde se almacena información de control.
Entre la información que se encuentran dentro de un sector:
Numero de sector y cilindro
El ECC (Error Correction Code) DATA.
La zona de datos
Zonas de separación entre zonas o entre pistas
También existen pistas extra donde se recogen otras informaciones como:
Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL.
Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.
Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la superficie con datos ante vibraciones o golpes de la unidad.
Tiempos de acceso, Velocidades y su medición
Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios conocer para comprender su funcionamiento y sus diferencias.
Tiempo de búsqueda de pista a pista : intervalo de tiempo necesario para desplazar la cabeza de lectura y escritura desde una pista a otra adyacente.
Tiempo medio de acceso : tiempo que tarda, como media, para desplazarse la cabeza a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba discos de 80 a 110 milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486 y PENTIUM usan discos de menos de 20 milisegundos.
Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.
Latencia Promedio : Es el promedio de tiempo para que el disco una vez en la pista correcta encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad de transferencia : velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad central. Depende esencialmente de dos factores : la velocidad de rotación y la densidad de almacenamiento de los datos en una pista
3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos)
Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos
Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados anteriormente sería:
El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de pistas por pulgada (que a su vez depende de factores como el tamaño de los dominios magnéticos) y de la velocidad y la precisión de los engranajes del cabezal. La latencia depende de la velocidad de rotación y equivale a la mitad del tiempo que tarda el disco en describir un giro completo. El rendimiento total también depende de la disposición de los dominios magnéticos, uso de ZBR.
Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco o velocidad de eje. Hace unos años todos los discos duros giraban a la misma velocidad unos 3600 rpm, la latencia resultante era de 8,3 milisegundos. Hoy las unidades de disco más rápidas para PC giran a 5400 rpm (un 50% más rápidas) y por tanto su latencia es de 5,6 milisegundos. Algunos discos siguen usando los 3600 rpm para consumir menos energía.
El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que a esta velocidad la disipación del calor se concierte en un problema. El segundo es que exige a usar nuevos motores articulados pro fluidos para los engranajes, los actuales motores de cojinetes no pueden alcanzar estas velocidades sin una reducción drástica de fiabilidad, se quemarían demasiado rápido.
Además de todas estas características de velocidades y tiempos de acceso de los discos duros existen una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las transferencias de datos entre el sistema y el dispositivo en cuestión. Una de las técnicas más conocidas en la informática para hacer esto es la del uso de memorias intermedias, buffers o cachés.
Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de interleaving.
Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solicitados en un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad.
Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos:
Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbytes. Con el modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes / seg.
Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg.
DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo.
Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un cotrolador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por segundo.