Evolucion de los dispositivos de almacenamiento de datos:
http://es.wikipedia.org/wiki/Dispositivo_de_almacenamiento_de_datos
1947- Memoria de Tubo Williams o Tubo Williams-Kilburn.
El tubo Williams o tubo Williams-Kilburn (inventado por Freddie Williams y Tom Kilburn),
desarrollado alrededor de 1946 o 1947, era un tubo de rayos catódicos usado para almacenar
electrónicamente datos binarios.
Algunos tubos Williams estaban hechos con tubos de rayos catódicos del tipo para radares con un
recubrimiento de fósforo que hacía a los datos visibles a la vista, mientras que otros tubos eran
construidos para este uso sin el recubrimiento. La presencia o ausencia del recubrimiento no tenía
efecto en la operación del tubo, y no tenía importancia para el operador debido que el tubo
estaba cubierto por la placa. Si era necesario tener una salida visible, se utilizaba un segundo tubo
con recubrimiento de fósforo como dispositivo de visualización.
Principio[editar]
Tubo Williams: esquema de la patente cedida a IBM (1947)
El tubo Williams depende de un efecto llamado emisión secundaria. El resultado de este efecto es
que, cuando un punto es dibujado en el tubo de rayos catódicos, un área pequeña a su alrededor
se carga en forma positiva, y la zona contigua se carga en forma negativa, creando una "zona de
carga". La zona de carga permanece en la superficie del tubo durante una fracción de segundo,
permitiendo al dispositivo actuar como memoria de computadora. La vida de la zona de carga
depende de la resistencia eléctrica en el interior del tubo.
El punto puede ser borrado dibujando un segundo punto inmediatamente a continuación del
primero, llenando de esta manera la zona de carga. Muchos sistemas hacían esto dibujando una
corta línea en la posición del punto; de esta manera la extensión de la línea borraba la carga
inicialmente almacenada en la posición del punto.
El computador lee la información del tubo a través de una placa de metal que cubre el frente del
tubo. Cada vez que un punto es creado o borrado, el cambio en la carga eléctrica induce un pulso
de voltaje en la placa. Debido a que la computadora sabe qué lugar de la pantalla está siendo
apuntado en cada momento, se puede usar el pulso de voltaje de la placa para "leer" el dato
almacenado en la pantalla.
Leer una ubicación de memoria crea una nueva zona de carga, destruyendo el contenido original
de esa localización, por lo que cada lectura debe seguirse con la escritura para reinstalar el dato
original. Muchos sistemas hacían esto dibujando una corta línea comenzando en la posición del
punto si la nueva zona de carga necesitaba borrarse. Además, debido a que la carga gradualmente
se pierde, era necesario rastrear el tubo periódicamente y re-escribir cada punto (similar al
refresco de memoria de la DRAM en los sistemas modernos).
Detalle del funcionamiento[editar]
Tubo Williams: diagrama de las señales
El almacenamiento de información en un "punto" en el interior de la cara del CRT se determina
por el nivel de carga relativa. La relación de emisión secundaria para el fósforo (y para el vidrio) es
mayor que 1. Así, si la cara es bombardeada con un haz de electrones primarios (con una
aceleración desde 1.000 hasta 2.000 voltios), entonces el "punto" se carga positivamente, porque
hay más electrones secundarios de baja energía que son emitidos por la superficie que los que
llegan en el haz de electrones primario. El equilibrio se alcanza cuando la carga relativamente
positiva del "punto" atrae los electrones suficientes para equilibrar el flujo. Si un "punto" se
"carga", entonces el área cercana es "descargada" por los electrones secundarios emitidos desde
el "punto" primario.
El haz, estando encendido o apagado durante una posición (o impulso de reloj), puede representar
los ceros o unos de un número binario (en el ejemplo es el número "1101"). Esquemas alternativos
de almacenamiento pueden implicar el uso de enfoque/desenfoque de la matriz o el uso de
puntos y rayas, en los puntos de la rejilla en la cara del tubo de rayos catódicos. Cambiando la
deflexión vertical o dirección de palabra, pueden ser almacenados varios formatos de números
diferentes. Williams utilizó los tubos de rayos catódicos en modo "cadena de bits en serie", en una
matriz de 32x32.
Escritura
Para escribir información en el tubo, el haz de electrones es desviado a lo largo de una línea
horizontal, y en cada punto donde se apaga el haz, queda una carga positiva residual (b). Para leer
la información del CRT, se coloca un electrodo en la parte exterior de la cara del CRT.
Lectura/reescritura (escaneo de refresco)
Cuando el haz pasa de nuevo sobre una línea, se genera un cambio de potencial en la cara interior
que es recogido capacitivamente por el electrodo de la placa exterior. Desde los puntos de carga
positiva se produce un "transiente anticipatorio" justo antes de donde se apagó el haz al escribir-
lo, la señal resultante se produce con tiempo suficiente para poder apagar el haz de nuevo en el
mismo "punto". (Williams llamó a este efecto "impulso anticipatorio").
Cuando el haz barre una línea horizontal en lectura, el potencial inducido sobre el electrodo se
amplifica, y, a través de los circuitos de "gating" y la rejilla de control del CRT, el haz es apagado
con un patrón idéntico al del barrido que lo creó. Así, la línea que se lee "se reescribe" y no queda
destruida por el proceso de lectura.
Una línea o bien escribe o bien se refresca
Sin embargo, la lectura de una línea cualquiera tiende a descargar las líneas vecinas, y es necesario
regenerar toda la matriz de forma sistemática mediante ciclos de lectura-reescritura. Para
conseguir mayor velocidad de acceso un esquema típico consiste en seleccionar (en lectura o
escritura) las líneas prioritarias "X" durante los accesos-impares y leer-reescribir la información
durante los accesos-pares (X-1-X-2- X-3-X-4-Xn).
Capacidad[editar]
Los tubos Williams almacenaban, aproximadamente, de 500 a 1.000 bits de datos.
Desarrollo[editar]
Desarrollado en la Universidad de Mánchester en Inglaterra, que proporcionó el medio para
realizar el primer programa escrito en un computador (la Máquina Experimental de Pequeña
Escala de Mánchester) almacenado electrónicamente. Tom Kilburn escribió un programa de 17
líneas para calcular el factor más alto de un número. La tradición en la Universidad de Mánchester
dice que este fue el único programa que Tom Kilburn jamás escribió.
Los tubos Williams tienden a perder la confiabilidad con el tiempo, y muchos equipos debían ser
"sintonizados" a mano al instalarlos. En contraste, la memoria de línea de retardo de mercurio era
más lenta y también necesitaba ajustarse a mano, pero no perdía confiabilidad con el tiempo y
gozó de relativo éxito en los inicios de la computación electrónica digital, a pesar de su tasa de
transferencia, peso, costo, temperatura y problemas de contaminación. Sin embargo, el
Manchester Mark I fue comercializado exitosamente como el Ferranti Mark I. Algunos de los
primeros computadores de EE. UU. también usaron tubos Williams, incluyendo el IAS machine,
originalmente diseñado para la memoria selectrón (fotos), el UNIVAC 1103, IBM 701, IBM 702 y el
Standards Western Automatic Computer (SWAC) (fotos). Los tubos Williams fueron usados
también por los computadores soviéticos, el Strela-1.
http://es.wikipedia.org/wiki/Tubo_Williams
1950: Memoria de Tambor magnético.
El tambor magnético, llamado memoria de tambor, es un dispositivo de almacenamiento de datos.
Fue una de las primeras memorias de computadora. Inventada en 1932 por Gustav Tauschek, en
Austria, fue extensamente usada en los años 1950 y 1960. Para varias computadoras, un tambor
constituía la memoria principal de trabajo, siendo los datos y programas cargados sobre el tambor,
usando medios de almacenamiento tales como cintas perforadas de papel o tarjetas perforadas.
Los tambores eran de uso tan común como memoria principal que con frecuencia se hacía
referencia a las máquinas como máquinas de tambor. Posteriormente, los tambores fueron
sustituidos como memoria principal por memoria de anillos de ferrita, más rápida y sin partes
móviles, y que siguió siendo utilizada hasta que la memoria basada en semiconductores entró en
escena.
Actualmente, en BSD Unix y sus descendientes /dev/drum es el nombre del dispositivo swap por
omisión, en alusión al uso de dispositivos de memoria secundaria de tambor para almacenamiento
de páginas en memoria virtual.
Características[editar]
El tambor magnético es un cilindro de metal hueco o sólido que gira en una velocidad constante
(de 600 a 6.000 revoluciones por minuto), cubierto con un material magnético de óxido de hierro
sobre el cual se almacenan los datos y programas. A diferencia de los paquetes de discos, el
tambor magnético físicamente no puede ser quitado. El tambor queda permanentemente
montado en el dispositivo. Palancas magnéticas que son capaces de recoger datos a mayores
velocidades que una cinta o una unidad de disco, pero no son capaces de almacenar más datos
que aquellas.
La superficie del tambor magnético se podía magnetizar debido al material que lo rodeaba. El
tambor giraba y sobre su superficie existían numerosos cabezales de lectura y escritura. Se
almacenaban los datos en pistas paralelas sobre la superficie del tambor. Al girar el tambor la
información almacenada pasaba por debajo de los cabezales de lectura/escritura.
Diferencias entre disco y tambor[editar]
Un tambor es un gran cilindro metálico cuya superficie exterior está recubierta por un material
ferromagnético. Dicho en términos simples, se trata de un plato de disco duro que tiene forma de
tambor en lugar de tener forma de disco delgado. A lo largo del eje del tambor se dispone una fila
de cabezales de lectura-escritura de disco, una por cada pista.
Una diferencia clave entre el tambor y el disco es que en el tambor las cabezas no tienen que
moverse, o buscar, para localizar la pista en la que leer o escribir. Esto tiene como consecuencia
que el tiempo para leer (o escribir) un fragmento dado de información es menor de lo que sería en
un disco; el controlador simplemente espera a que los datos aparezcan bajo la cabeza adecuada
según el tambor rota. El rendimiento del tambor queda definido de forma casi exclusiva por la
velocidad de rotación, mientras que en un disco son importantes tanto la velocidad de rotación
como la velocidad de desplazamiento de los cabezales.
A pesar de lo dicho, el rendimiento era un problema por lo que, cuando se utilizaba un tambor
como memoria principal de una máquina, los programadores llegaban a seleccionar la ubicación
en el tambor de cada elemento del código de forma tal que se redujera el tiempo necesario para
localizar la instrucción siguiente. Lo hacían estudiando cuidadosamente el tiempo necesario para
que la computadora ejecutara una instrucción determinada y estuviera lista para leer la
instrucción siguiente. Entonces, situaban la instrucción siguiente en el tambor de forma que
pasara bajo los cabezales en ese preciso instante. Este método de compensación de tiempos se
denomina interleaving, y todavía se utiliza hoy día en controladores de discos duros modernos.
En una unidad de disco duro moderno, hay un retraso en la lectura y escritura de datos, esta
demora es incluida a la hora de posicionar la cabeza sobre la pista deseada (tiempo de búsqueda),
más el tiempo que demora en que los datos que se desean giren a la posición bajo la cabeza
(latencia rotacional), mientras que el rendimiento de un tambor con una cabeza por pista se
determina casi en su totalidad por la latencia rotacional. Las funciones básicas de los cabezales de
lectura/escritura son colocar puntos magnetizados (ceros y unos, 0 y 1 binarios) así como detectar
los puntos donde se deben realizar las operaciones de lectura/escritura.
Montaje[editar]
Algunos tambores son montados en posición horizontal, mientras que hay otros que son
montados en posición vertical.
Para tener una idea de la velocidad y capacidad de almacenamiento, algunos tambores de alta
velocidad son capaces de transferir más de un millón de caracteres de datos por segundo, que es
aproximadamente el equivalente a la lectura de un montón de tarjetas perforadas. Las
capacidades de almacenamiento de tambores magnéticos varían entre 20 millones y más de
150.000 millones de caracteres de datos.
http://es.wikipedia.org/wiki/Tambor_magn%C3%A9tico
1950: Memoria de toros o Memoria de núcleos magnéticos
La memoria de toros o memoria de núcleos magnéticos, fue una forma de memoria principal de
los computadores, hasta comienzos de 1970. La función de esta memoria era similar a la que
realiza la memoria RAM en la actualidad: es el espacio de trabajo, para la CPU, donde se graban los
resultados inmediatos de las operaciones que se van realizando. A diferencia de la RAM basada en
tecnologías DRAM, se basa en las propiedades magnéticas de su componente activo, el núcleo de
ferrita y era una memoria no volátil.
Historia[editar]
Tras desplazar a otras tecnologías de almacenamiento, la memoria de toros dominó la industria
informática durante los años 1950 y 1960. Fue usada de manera extensa en computadoras y otros
dispositivos electrónicos como las calculadoras. Intel fue creada con la idea de convertir la
memoria de estado sólido en la memoria dominante en la industria de los computadores. Para
1971, Intel logró posicionar una memoria tipo DRAM como un dispositivo de buenas prestaciones
y relativo bajo precio copando los mercados de la memoria de núcleos y relegándola al pasado.
Tecnología[editar]
Matriz de toros de NCR
El mecanismo de memoria se basa en la histéresis de la ferrita. Los toros de ferrita se disponen en
una matríz de modo que sean atravesadas por dos hilos, X e Y, que discurren según las filas y
columnas. Para escribir un bit en la memoria se envía un pulso simultáneamente por las líneas Xi e
Yj correspondientes. El toro situado en la posición (i, j) se magnetizará en el sentido dado por los
pulsos. Los demás toros, tanto de la fila como de la columna, no varían su magnetización ya que
sólo reciben un pulso (X o Y), cuyo campo magnético es insuficiente para vencer la histéresis del
toro.
Y por esto los toros se metían en corrales para sopartar los hilos X e Y. El dato se lee mediante un
nuevo hilo Z, que recorre todos los toros de la matriz. Escribimos un cero por el método descrito
anteriormente, luego sólo el toro (i, j) puede cambiar de estado. Si contiene un cero, no cambia,
luego en la línea Z no se tiene señal; pero si el toro tiene un uno, pasa a valer cero, su sentido de
magnetización cambia e induce un pulso en la línea Z, que se leerá como "uno".
Como se ve, el proceso descrito destruye el dato que se lee, luego en las memorias de toros es
necesario reescribir el dato tras leerlo.
Una memoria con un tamaño de palabra de n bits, pongamos 16 bits, necesita 16 matrices como la
descrita, con 16 líneas Z, una por bit.
Fabricación[editar]
La fabricación de estas memorias se hacía enhebrando las líneas X, Y y Z en los toros de forma
manual. Los toros se pegan a un soporte, que puede ser una placa de circuito impreso (últimos
modelos) o a los propios hilos X e Y, de rigidez suficiente para soportar el conjunto, que va sujeto a
un marco del que salen las conexiones. Finalmente se apantallan magnéticamente con una chapa
de "mu-metal", habitualmente, con el fin de evitar que campos magnéticos espúrios alteren el
contenido de la memoria.
http://es.wikipedia.org/wiki/Memoria_de_toros
1951: Uniservo.
El UNISERVO unidad de cinta era el principal de E / S dispositivo en la UNIVAC I ordenador. Su
lugar en la historia está asegurado ya que era la primera unidad de cinta para un equipo vendido
comercialmente.
El UNISERVO utiliza cinta de metal: un 1 / 2 -pulgadas de ancho (13 mm) tira fina de níquel
chapados en bronce de fósforo (llamado vicalloy) 1,200 pies de largo. Estas bobinas de cinta de
metal eran muy pesados. Los datos se registraron en ocho canales en la cinta (seis para el valor de
datos, un canal de paridad para la comprobación de errores, y un canal de sincronización) a una
densidad de 128 bits por pulgada. La cinta podría ser trasladado a 100 pulgadas por segundo, con
una tasa de transferencia nominal de 12,800 caracteres por segundo. Los datos fueron registrados
en bloques de tamaño fijo de 60 palabras de 12 caracteres cada una. Con el debido descuento por
el espacio vacío entre los bloques de cinta, lavelocidad de transferencia real fue de alrededor de
7.200 caracteres por segundo.
El UNISERVO apoyó tanto en el modo de avance y retroceso en la operación de lectura o escritura.
Esto ofrece ventajas significativas en los datos de clasificación y se fusionan aplicaciones. Las
transferencias de datos a / desde el procesador de UNIVAC I fueron amortiguados por completo
en un solo bloque de memoria dedicada, permitiendo la ejecución de instrucciones en paralelo
con el movimiento de la cinta y la transferencia de datos. La ruta de datos de serie interno permite
la inserción de un bloque de datos de la cinta en la memoria principal en una instrucción.
UNIVAC continuó utilizando el nombre UNISERVO para los modelos posteriores de la unidad de
cinta (por ejemplo, UNISERVO II , UNISERVO IIIC , UNISERVO VIII-C ) para las computadoras
posteriores en su línea de productos. El UNISERVO II podía leer cintas de metal de la UNIVAC I, así
como una mayor densificación película PET base / férricos cintas de los medios de óxido que se
convirtieron en el estándar de la industria. Aunque UNIVAC fue la primera con cinta de
computadora, y tenía un mayor rendimiento que las unidades actuales de cinta de IBM, IBM fue
capaz de establecer el estándar de intercambio de datos. UNIVAC más tarde fue obligado a ser
compatible con la tecnología de IBM.
Detalles técnicos [ editar ]
El movimiento de la cinta en el UNISERVO I estaba controlada por un único cabrestante conectado
a un motor síncrono . La oferta y la asimilación de movimiento carrete se reguló a través de un
arreglo complejo polea-string de la primavera, ya que el diseño era antes de la invención de la
memoria intermedia de la columna de vacío. La unidad de cinta que contiene un líder permanente
y cada carrete de cinta tenía un vínculo conector al líder. Los chapado en níquel cintas de bronce
fosforoso eran muy abrasivo y para contrarrestar este problema, una cinta de desgaste de plástico
delgado se movió lentamente sobre el cabezal de impresión, entre la cabeza y la cinta, evitando
que el cabezal de impresión de llevar a cabo rápidamente. Las cintas de metal también estaban
sucias y un renovado lentamente sentían limpiaparabrisas recogido restos de cinta. El UNISERVO
yo tenía una capacidad de rebobinado de alta velocidad y varias unidades en la UNIVAC pudiera
retroceder mientras que otros continuaron con el procesamiento de datos lee o escribe.
codificación de fase (Manchester) se utilizó para registrar la información.
La tarde UNISERVO IIA y IIIA omiten la cinta desgaste plástico y sentían limpiaparabrisas, ya que se
utilizan sobre todo con las películas de PET cinta magnética base. Ambos continuaron el uso de
registro de fase codificada y unidades cabrestante individuales y eran los diseños de las columnas
de vacío. Las cintas IIIC y posteriores utilizados NRZI codificación para que sean compatibles con
las IBM 729 unidades de cinta serie que establecen el estándar de la industria para el intercambio
de datos. Irónicamente, IBM y más tarde pasó a la fase de codificación en su generación de cintas
1600 bits por pulgada debido a su confiabilidad de datos superior.
http://en.wikipedia.org/wiki/UNISERVO
1956: IBM 350.
El IBM 350 era parte del IBM 305 RAMAC, la computadora que introdujo al mundo la tecnología de
almacenamiento en discos, el 4 de septiembre de 1956. RAMAC "Random Access Method of
Accounting and Control". Su diseño fue motivado por la necesidad de sustituir las tarjetas
perforadas usadas por la mayoría de los negocios de la época. Los IBM 350 podían almacenar 5
millones de caracteres de 7 bit (cerca de 4,4 megabytes). Tenían cincuenta discos de 61 cm (24
pulgadas) de diámetro con 100 superficies de grabación. Cada superficie tenía 100 pistas. Los
discos giraban a 1200 RPM. La tasa de transferencia de datos era de 8800 caracteres por segundo.
Dos cabezales de acceso independientes se movían hacia arriba y hacia abajo para seleccionar un
disco y adentro y hacia fuera para seleccionar una pista de grabación, todo esto controlado por un
servo. Se agregó un tercer cabezal opcional. En los años 50 se añadieron varios modelos
mejorados. La computadora IBM RAMAC 305 con el disco de almacenamiento IBM 350 se podía
alquilar por unos 3200 dólares al mes. Los IBM 350 fueron retirados oficialmente en 1969.
Las dimensiones del IBM 350 eran 1,52 metros de largo, 1,73 metros de alto y 74 cm ancho. IBM
tenía una regla terminante, que todos sus productos no deben sobrepasar el estándar de 75 cm
(29,5 pulgadas). Puesto que los IBM 350 fueron montados horizontalmente, esta regla dictó
probablemente el diámetro máximo de los discos.
En una entrevista1 publicada en el Wall Street Journal a Currie Munce, el vice presidente de
investigación de Hitachi Global Storage Technologies, que adquirieron el negocio del almacenaje
de IBM, dijo que la unidad entera de RAMAC pesaba más de una tonelada y tuvo que ser
trasladada con montacargas y ser entregada usando grandes aviones de carga. Según Munce,
mientras que la capacidad de almacenamiento podía ser aumentada a unos 5 megabytes, el
departamento de marketing de IBM estaba en contra del aumento de la capacidad porque no
sabían vender un producto con más almacenaje.
Hoy en día, el Museo de historia de la computadora, situado en Mountain View, California,
dispone de una restauración del disco de almacenamiento del RAMAC.
http://es.wikipedia.org/wiki/IBM_350
1972: Casete de cinta.
La cinta magnética es un tipo de medio o soporte de almacenamiento de datos que se graba en
pistas sobre una banda plástica con un material magnetizado, generalmente óxido de hierro o
algún cromato. El tipo de información que se puede almacenar en las cintas magnéticas es variado,
como vídeo, audio y datos.
Hay diferentes tipos de cintas, tanto en sus medidas físicas como en su constitución química, así
como diferentes formatos de grabación, especializados en el tipo de información que se quiere
grabar.
Los dispositivos informáticos de almacenamiento masivo de datos de cinta magnética son
utilizados principalmente para respaldo de archivos, y para el proceso de información de tipo
secuencial, como en la elaboración de nóminas de las grandes organizaciones públicas y privadas.
Al almacén donde se guardan estos dispositivos se lo denomina cintoteca.
Su uso también se ha extendido para el almacenamiento analógico de música (como el casete de
audio) y para vídeo, como las cintas de VHS (véase cinta de video).
La cinta magnética de audio dependiendo del equipo que la reproduce/graba recibe distintos
nombres:
Se llama cinta de bobina abierta si es de magnetófono.
Casete cuando es de formato compacto utilizada en pletina o walkman, aunque existen una amplia
gama de casetes destinados a audio, video y archivo de información.
Cartucho cuando es utilizada en cartucheras.
Hoy en día se siguen usando cintas en casetes para resguardo de información, aunque no se trate
de un medio masivo, Sony recientemente ha creado una tecnología en la cual se puede almacenar
2,5 TB de información en cinta magnética.1
Origen de la cinta magnética[editar]
Los principios de la grabación magnética fueron obra del inglés Oberlin Smith en 1878.2 El primer
dispositivo de grabación magnética, el Telegráfono (Telegraphone),3 fue realizado y patentado por
el inventor danés Valdemar Poulsen en 1898.4 Poulsen hizo una grabación magnética de su voz a
lo largo de un alambre de piano, con la finalidad de dejar un mensaje grabado en la central
telefónica cuando no se encontraban los usuarios en casa, para la compañía en la que trabajaba
como técnico.
Invento de Valdemar Poulsen de 1898. Grabadora magnética de cable (Telegraphone).
Poulsen, después de haber patentado la aplicación en 1898 en Dinamarca, mejoró su invento; este
se parecía al primer fonógrafo de Thomas Edison. A partir de su descubrimiento se dedicó a
desarrollar y a registrar por medio de patentes el principio de la grabación magnética en
diferentes países de Europa y en Estados Unidos. Presentó su invención en 38 naciones.5
Poulsen continuó desarrollando el equipo después de haber colaborado para Mix & Genest, y
Siemens & Halske (antecesor de la compañía Siemens), y creó su propia compañía, “Dansk
Telegrafonfabrik”, en donde produjo un telegráfono simple con discos que grababan hasta 2
minutos y uno más complejo de cinta de alambre que grababa hasta 30 minutos.
Más adelante se hicieron diferentes modelos de grabadoras magnéticas con el mismo principio de
grabación. En Alemania se creó el Magnetófono; esta máquina utilizaba acero sólido en forma de
cinta o alambre como medio de reproducción.
Grabadora telefónica con unidad reemplazable de cinta de alambre (parte superior).
Hubo muchas adaptaciones y diferentes tipos de grabadoras magnéticas de voz, las cuales fueron
comercializadas con diferentes usos en oficinas, la radio, la milicia y la telefonía. Cuando se
estaban acabando los derechos de patente de Poulsen, Curt Stille —que era el responsable de las
investigaciones para mejorar el telegráfono— produjo el ecófono en 1930 y lo dio a conocer en el
mercado en 1933 como “Dailygraph”.6 Stille implementó en la grabadora de mensajes un sistema
de carretes con la cinta-cable magnética, los cuales empotró en una repisa especial para
reemplazar este componente al dar mantenimiento a la máquina. Esta unidad puede ser
considerada el antecedente del formato casete, que permitió manipular fácilmente la cinta de
alambre y reemplazar de forma práctica el material grabado.
Magnetófono de cinta de alambre (Wire Magnetophone).
Las variantes de materiales en el medio de grabación dependían mucho del equipo en que se
reproducía; uno de los que desarrollaron y patentaron la cinta magnética sobre base de papel para
sustituir las cintas de acero fue el inventor alemán-austriaco Fritz Pfleumer, quien empleó papel
muy delgado con una capa de óxido de hierro pegado con laca. Registró esta adaptación en la
patente alemana DRP 500,900 en 1928. Pfleumer posteriormente trabajó y compartió los
derechos de autor con la compañía AEG (German General Electric), empresa que continuó
desarrollando el magnetófono7 de cinta magnética y se dedicó a incorporar la mejora de la cinta a
base de papel al equipo. Eduard Shüller, que colaboraba para el equipo de ingenieros de AEG, ideó
en 1934 un importante cambio: la cabeza de anillo que funcionaba en el equipo para grabar,
reproducir y borrar, pero el mecanismo mejorado requería una cinta magnética con diferentes
características que la cinta a base de papel.
AEG requirió materiales como el hierro carbónico de la BASF (acrónimo de Badische Anilin und
Soda Fabrik, en español: Fábrica Badense de bicarbonato de sodio y anilina), división en
Ludwigshafen del gigante mezcladora química I.G. Farbenindustrie.,8 Pfleumer registró una cinta
cuyo material avanzado contenía óxido de hierro (magnetita), celulosa y acetato en 1934. Las
cintas con base de plástico fueron presentadas comercialmente en 1935 por la BASF en la IFA o
Internationale Funkausstellung Berlin (feria de muestras internacional de la radiodifusión de
Berlín), y la primera grabación pública fue hecha con la grabadora de cinta de celulosa y acetato de
la AEG en 1936 con la Orquesta Filarmónica de Londres, conducida por el Sr. Tomas Beecham en el
salón de la compañía BASF en Ludwingsahven9 (grabación que sería famosa en el material de
propaganda de la guerra).
El PVC (Cloruro de Polivinilo) fue utilizado en la cinta magnética como alternativa de producción
por sugerencia de Heinrich Jacque (de la BASF) en 1940, debido a la destrucción accidental
(causada por un tanque de guerra) de la única planta que manufacturaba la cinta. La otra opción
de producción fue desarrollada por personal de la compañía AGFA en Wolfen, que se especializaba
en material de películas; allí se produjeron suficientes cintas para cubrir la demanda alemana en
1944.
En Japón, en el año 1929, Masaru Ibuka y el equipo de ingenieros TTK (Compañía de Ingeniería en
Telecomunicaciones TTK, por sus siglas en japonés) antecedente de la empresa SONY, en el afán
de desarrollar una grabadora de cinta basándose en la grabadora estadounidense, adquirieron con
ayuda de Akio Morita patentes de componentes de la grabadora magnética para comenzar su
investigación. Como no podían fabricar cintas con plástico, por problemas de disponibilidad de ese
material en Japón, las elaboraron al principio con celofán, papel arroz y, por último, papel
prensado recubierto de polvo magnético. Para compensar el menor control del papel, el equipo de
ingenieros debió trabajar en la mejora de la calidad de los circuitos en las cabezas de grabado, en
los sistemas de alimentación y en los amplificadores de la grabadora. En 1950 la primera
grabadora de cinta de manufactura local fue comercializada en Japón; la máquina pesaba más de
100 libras (45,4kg).10 El nombre comercial de la cinta de papel fue conocido como “Cinta-Soni
KA”.11
En Estados Unidos de América a partir de 1943, con las investigaciones de la Oficina Federal de
Investigación Científica y Desarrollo (OSRD),12 entidad cuya subdivisión proporcionó información
para la grabación magnética y formó parte del inicio de la compañía Brush, los ingenieros se
percataron de que el uso de la cabeza de anillo del magnetófono dependía mucho del medio
magnético en donde se reproducía. Uno de los colaboradores de Brush que había trabajado para
AEG, el Sr. Semi Begun, fue el responsable de mejorar la tecnología de la cinta estando atento al
trabajo de Fritz Pfleumer. Begun solicitó la ayuda del Instituto Memorial Battelle para conocer la
resistencia de algunos materiales de forma científica y química para poder crear una cubierta de
partículas magnéticas.5
Gerard Foley trabajó en los experimentos en el Memorial Batelle, se dedicó a hallar materiales
magnéticos similares a la cinta de acero, sus primeros intentos no fueron efectivos hasta que
descubrió a mediados de 1945 que algunos pigmentos de pintura que eran hechos con partículas
magnetizadas artificiales eran mejores que las partículas de origen natural. Logró implementarlos
en las primeras pruebas de material de grabación y obtuvo mejores resultados que la cinta-
alambre y la aceptación de la compañía para usar sus resultados en la producción de cinta
estadounidense.
Brush se dedicó a la manufactura de grabadoras de audio pero no se especializó en la producción
en grandes cantidades de material para producir cinta, así que buscó la ayuda de Eastman Kodak,
Meade Paper, Minnesota Mining and Manufacturing (3M) y Shellmar (fabricante de envolturas
para pan).13
Shellmar, a finales de la segunda guerra mundial -en 1945-, produjo las primeras cintas para la
grabadora Soundmirror BK 401 y la grabadora Mail-A-Voice de disco; 3M después se interesó en la
producción de la misma tecnología en cinta y estableció un laboratorio de desarrollo. El físico
Wetzel, quien trabajó para esta última compañía, previó el desarrollo de un mercado potencial en
el extranjero y apoyó la fabricación de cintas de buena calidad a nivel internacional.14
Grabadora magnética estadounidense modelo Wilcox-Gay de riel o bobina. Grababa audio en las
primeras cintas magnéticas de celulosa y acetato producidas en EU. Equipo producido entre 1940
y 1950.
Mientras, los servicios de inteligencia estadounidenses desarrollaban las primeras cintas
magnéticas en colaboración con la industria privada. Se exportaron a Alemania al final de la
segunda guerra mundial, por intervención del comandante supremo de las tropas de los Aliados
en el Frente Occidental de Estados Unidos Eisenhower, quien dio órdenes de producir cintas en
Norteamérica y destruir los reproductores y las cintas alemanas a causa de un bochornoso
espectáculo público, provocado por un error cometido por miembros del Cuerpo de Señales
(Signal Corp).
Al querer aprovechar el descubrimiento del magnetófono alemán, decidieron transmitir por radio
un discurso grabado de Eisenhower; la transmisión creó confusión en los radioescuchas, ya que se
percibía de fondo la voz sobrepuesta de Adolfo Hitler, y sus palabras se notaban más en los
silencios del discurso. Los ingenieros del Cuerpo de Señales de Estados Unidos habían grabado el
mensaje del militar incorrectamente en una cinta pregrabada por el Ministerio de Propaganda
Alemana, debido a la poca cantidad de cintas encontradas y al desconocimiento del correcto uso
del equipo incautado.15
Introducción de cinta magnética en radio y televisión[editar]
Otro estadounidense que aprovechó la incautación de equipo al final de la segunda guerra
mundial fue el técnico del cuerpo de señales Jack Mullin, quien rescató de Fráncfort dos
Magnetófonos de la AEG y 50 carretes de grabación de Farben, los cuales envió a su casa para
trabajar en ellos y mejorar su funcionamiento, con la intención de interesar a los estudios de
películas de Hollywood en la grabación de sonidos de película, en una de sus dos presentaciones
en 1947, Murdo McKenzie,16 director técnico de radio de Bing Crosby se interesó tanto en el
equipo y presentó a Mullin con Crosby quien quedó impresionado de la calidad de sonido y utilizó
el magnetófono en la radio para emitir sus programas grabados y no en vivo; En la estación
utilizaba dos grabadoras que se reproducían simultáneamente, una con la grabación original la
cual se reproducía al aire y la otra que se usaba como copia de respaldo para sustituirla en la
emisión, en caso de romperse la cinta (antecedente de la Cinta Maestra en la radiodifusión y la
práctica de hacer una copia).
Bing Crosby invirtió 50,000 dólares en la firma de electrónica Ampex17 para producir
reproductores de cinta basados en las mejoras de Mullin al Magnetófono alemán; Las compañías
Rangerton y Magnerecord también competían fabricando reproductores de audio (grabación
magnética) para el mercado de consumo a mediados de 1950. Mullin se percató que las cintas 3M
eran muy buenas para reproducirlas en las máquinas que Ampex produjo a base de sus mejoras.
Crosby influyó para que la radiodifusora ABC (American Broadcasting Company) comprara hasta
12 grabadoras y diera un giro a la radiodifusión en vivo; Jack Mullin y Ampex desarrollaron
posteriormente el funcionamiento de un registrador de videocinta monocromático en 1950 y
Charles Paulson Ginsburg se integró en 1952 como líder del equipo de desarrollo de mejoras de la
grabadora de video cassette de color, inventada en 1954, ambos equipos fueron creados para
grabar Crosby en sus programas de televisión (o TV).
Bing Crosby, influyó en la radio y televisión para emplear tecnología de grabación magnética.
Ginsburg y el equipo de Ampex continuaron trabajando en las mejoras del equipo, redujeron la
velocidad de grabación del VTR (Video Tape Recorder) o magnetoscopio patente número
2.956.114 de los E.E.U.U.18 redujeron las altas velocidades que recorrían hasta 240 pulgadas por
segundo, sin perder la respuesta de alta frecuencia necesaria para grabar las emisiones de
televisión, con estas mejoras se pusieron de acuerdo con la productora de 3M que logró adaptar
sus cintas para soportar la tensión del mecanismo del equipo y la prueba definitiva del
funcionamiento en la videograbadora con la cinta fue hecha en un avión, unas horas antes de la
presentación formal en Chicago.
En abril 15 de 1956, en la 31ava convención anual de la NAB (National Association of Radio and
Television Broadcasters) en Chicago. Ampex presentó la grabadora de video con el nombre
comercial Mark IV (antes nombrada como Ampex VRX-1000) usaba una cinta 3M de 2” de ancho y
recorría 15 pulgadas por segundo (ips) con sonido en amplitud modulada (AM) fue de los primeros
modelos comercializados que empleaban el método de grabación Quádruplex.19
Magnetoscópio Ampex VRX2000 uno de los primeros modelos que grababan con cinta video
magnética para la industria televisiva en blanco y negro(VTR).
La CBS fue la primera cadena televisiva que empleó la tecnología de VTR, comenzando a pregrabar
sus emisiones en 1956; Las ventajas del uso de la tecnología de cinta magnética de vídeo
sustituyeron las emisiones en vivo, además de que era un medio económico para las productoras,
las desventajas del uso de la cinta fue la lenta edición al introducir comerciales entre programas
por el cambio a modo digital, diferente al modo de edición sencillo que acostumbraban utilizar al
emplear filme de película.
Las primeras ediciones en cinta magnética se les conocía en el medio como editado Kamikaze
proceso que requería localizar el punto adecuado en el vídeo, al revisar la cinta se colocaba un
líquido (Ampex lo nombró Edivue) a base de hierro carbónico para marcar líneas y pulsos de
edición, estos podían ser visibles con un escáner magnético, a través de este proceso el
ingeniero/editor localizaba los intervalos verticales en la cinta para cortar y posteriormente unir,
se perdía medio segundo de audio el cual tenía que ser re-grabado en la parte posterior de la cinta
de video unida, usando una segunda máquina.
Para acelerar el proceso de editado, La NBC en Burbank desarrolló un método para editar cinta
usando película kinescópica como trabajo de marcado de grabación y luego adaptando la cinta
maestra a la película marcada para su edición. Uno de los primeros shows de televisión que hacía
uso de esta técnica fue el Especial de Fred Astaire, editado en 1958. La técnica fue un éxito
inmediato y los shows televisivos a raudales fueron editados ese primer año. Este fue el primer
intento nombrado (edición independiente) off-line editing.20
Ampex en 1961se dedicó a mejorar su grabadora de video VTR, compitió y unió esfuerzos con RCA
(Radio Corporation of America) para hacer equipos compatibles blanco/negro y color, Ampex hizo
la primera unidad móvil de VTR.21 Para introducir comerciales en la televisión (TV) sin la
necesidad de hacer previa edición, presentaron a las emisoras la “cartuchera o librería robótica”
con modelo TCR-100 de RCA y ACR-25 de Ampex en 197022 el primer equipo podía sostener 12 y
el segundo equipo 24 cartuchos los cuales eran grabados y reproducidos de forma controlada y
aleatoria, para publicidad en la televisión.
Estandarización[editar]
En la reunión de la Society of Motion Picture and Television Engineers (SMPTE) en Los Ángeles en
1950, para conciliar estándares de fabricación y producción, se planteó el concepto de la
grabación del sistema de Escaneo Helical (Helical Scan) para grabar en cintas de una pulgada y
otras variantes de diseño de los mecanismos del equipo VTR, Eduard Shüller,23 quien trabajaba en
Hamburgo para la empresa Telefunken, registró en una patente el desarrollo de una grabadora
magnética con dos cabezas de grabación helical en 1953; En Japón Alemania y Estados Unidos se
dedicaron a aterrizar el concepto para posteriormente presentarlo en la asociación.20
Uso de Pistas en Cinta Magnética[editar]
Esquema de grabado análogo en cinta magnética de video con formato Betacam, se aprecia en las
trazas la ubicación de pistas de audio e imágenes.
A partir de 1948 Les Paul,24 un Amigo de Crosby e invitado regular en sus shows trabajaba con
grabaciones sobrepuestas en disco. Adaptó la primera grabadora Ampex 200 adicionando cabezas
de reproducción para cubrir la necesidad de unir las grabaciones independientes de instrumentos
y solistas en una cinta magnética creando la primera Grabadora Multipista,25 Ampex, 3M, Scully
Recording y otros fabricantes se ajustaron a las necesidades de los músicos e ingenieros de
grabación para crear máquinas de 1 a 4 pistas (tracks) hasta llegar a la versión de 24 pistas que se
lanzó al mercado a principios de los 9026 los frutos de la era de la grabación análoga a través de
estas máquinas de cinta trajo éxitos para The Beatles27 con Sgt. Pepper's Lonely Hearts Club
Band,28 entre otros artistas.29 El ancho de cinta utilizado por cada mezcladora dependía del
fabricante y del número de pistas del equipo que abarcaba desde ¼” hasta 2”. Más adelante surgió
la necesidad de modificar los efectos de sonido como reverberación, coros y ecos o agregar más
pistas al momento de editar, surgió la necesidad de emplear máquinas con código de tiempo de
acuerdo estándares de fabricación y producción.30
El uso de pistas también se aplicó en las cintas de video, con el método de grabación helical las
trazas en la cinta tienen una ubicación especial para las pistas de audio. Un ejemplo del uso de las
pistas de audio se aprecia claramente en el esquema de grabado del formato Betacam.
Métodos de Grabación[editar]
Método de Grabación Lineal. Cabeza lectora grabadora de audio o datos por ejemplo
magnetófono o grabadora de formato cassette
La grabación magnética involucra registrar sobre la cinta magnética (cinta con material
magnetizable) impulsos magnéticos en forma de señales análogas o digitales por codificar, la
información puede ser accedida repetidamente, una característica de este medio es que la cabeza
codificadora debe estar en contacto directo con la superficie magnética y provocar un movimiento
constante para ser leída a través de movimiento mecánico es decir manualmente o a través de un
motor.
Los métodos de grabación son una forma de clasificar la tecnología y cada cambio ha reutilizado la
cinta magnética para aprovechar el medio de almacenamiento:
Método de Grabación Transversal. Cabeza lectora grabadora utilizada en video de los equipos
desarrollados por Ampex El MarkI y VR-1000 que fue la primera videograbadora a color
Grabación Lineal. Con la grabación de señales análogas y digitales que se registran en la cinta
magnética como audio o datos codificados, se puede observar en las primeras cintas la traza de la
señal en forma de línea horizontal, de acuerdo a las necesidades de ingenieros en audio video o
datos, hubo variantes como la grabación en pistas que comprenden múltiples trazas horizontales
grabadas con diferentes cabezas que podían ser reproducidas al mismo tiempo o el Lineal
serpentine que al momento de llegar al final de la cinta la cabeza grabada en dirección opuesta
trazando una segunda línea parealela lo que dio inicio a la necesidad a mayor capacidad de
almacenamiento.31
Grabación Transversal. Para aprovechar la superficie grabable de la cinta magnética se diseñó un
tambor giratorio con cuatro cabezas de grabación para almacenar video el cual requiere mayor
cantidad información almacenada a lo ancho de la cinta, mientras las cinta estaba en constante
movimiento cada pista está ligeramente inclinada, muy pocos equipos utilizaron este método de
grabación como las grabadoras Mark I y Mark II de Ampex nombraron esta tecnología de
grabación como "Quádruplex".32
Método de Grabación Helical. Cabeza lectora grabadora para video en los equipos desarrollados
en Japón Alemania y Estados Unidos a partir de 1963
Grabación Helical. Para perfeccionar el modo de grabación transversal se redujeron de cuatro
cabezas a dos que rotan en diferentes ángulos hacia la dirección en la que la cinta se transporta,
para lograr una secuencia de grabación continua y mayor superficie de cinta aprovechada, se
pueden apreciar las trazas de la cinta grabadas diagonalmente a lo largo de esta.33
Otros usos de la cinta magnética es la derivación a banda magnética empleada para la certificación
de documentos, pagos por medio de tarjetas bancarias, validación de boletos y tarjetas de
identificación, emplean la ADC (analogue to digital converter).Las señales digitales representan
bits de información de cero a uno, el lector transforma estas señales en datos de información. Los
formatos empleados son análogos y/o simbología de código de barras para transformarlos a
caracteres ASCII.34
Con el método de grabación Lineal, Transversal (Transverse Wave), Escaneo Helical (Helical Scan) y
el siguiente método de grabación que sustituye a la cabeza de grabación por el lector y grabador
con tecnología láser empleando el método de Grabación perpendicular o Fotónica del Spin
(Photonics of Spin). Para su fabricación y estandarización se emplean diversos formatos de
transportación de la cinta magnética para incorporarlos al equipo como un componente con el fin
de lograr satisfacer las necesidades de grabación auditiva, audiovisual y datos extendiéndose
dependiendo de su éxito del mercado profesional al mercado de consumo.
Adaptación para almacenamiento de datos[editar]
1949 Edvac fue la primera computadora que empleó cinta magnética como medio de
almacenamiento de datos.
Las primeras computadoras fueron usadas para descifrar código alemán durante la Segunda
Guerra Mundial (Mark I - 1943); calcular trayectorias de proyectiles (Eniac - 1946), mejorar los
problemas encontrados en la computadora Eniac (Edvac - 1949) y para predecir la elección
presidencial (Univac I - 1952). Los creadores de estas últimas computadoras fueron J. Presper
Eckert y John William Mauchly, Herman H. Goldstine, John von Neumann.35
1955 Tape-to-Card_Converter Primer convertidor de cinta a tarjeta, usaba formato de cinta
Uniservo fabricado por Remington Rand para computadora Univac
En 1949 Edvac fue la primera computadora que empleó la cinta magnética como medio de
almacenamiento de datos, fue de las primeras computadoras que procesaba con sistema binario
en lugar de decimal y un lector grabador de cinta magnética.
Univac en 1955 fue de las primeras computadoras que solucionó la necesidad de convertir grandes
cantidades de información previamente almacenada en tarjetas, la mayoría de los equipos
utilizados en ese tiempo sólo disponían de interfaz para la lectura de tarjetas perforadas, usaba un
equipo auxiliar externo (out-line) para convertir el medio de almacenamiento de datos, de tarjeta
perforada a cinta magnética y de cinta magnética a tarjetas perforadas. Leía, revisaba y convertía
hasta 120 tarjetas por minuto y grababa en la cinta magnética conocida comercialmente como
Uniservo para la Univac modelo 1103A.36
Univac fue dirigida para solucionar necesidades para el gobierno, comercio, ciencia e industria. El
giro comercial en dónde más se utilizó fue en el ramo de seguros e industria con más de 1000
empleados cuya información se almacenaba en las cintas magnéticas ingresándolo de 2 formas
diferentes por el convertidor de tarjetas o con máquina de escribir eléctrica nombrada Unityper
que convertía los caracteres (letras) a sistema binario, el equipo podía procesar 12,000 caracteres
por segundo para hacer la declaración de impuestos, tendencias de análisis de mercado, registro
de costos, cuentas por recibir o pagar, control de producción, declaración de comisiones,
valuaciones, reportes estadísticos, pago de impuestos, deducciones por número de seguridad
social, cuotas sindicales, análisis del trabajo a destajo, inventarios, tarifas por horario, tasas por
hora extras, salarios y comisiones. En 4 horas se obtenían listados detallados impresos de 1500
empleados.37
En 1987 entra al mercado la Digital Audio Tape (DAT) que fue un formato dirigido al sector
profesional que requería en su momento un sistema de grabación digital con el cual poder
efectuar masters para CD, ya que en el momento de la invención del disco compacto todos máster
2 pistas se realizaban en cinta abierta de 1/4 de pulgada.
Formatos de cinta magnética[editar]
Formato de cartucho de cinta magnética de 2" con 8 pistas.
Riel, Carrete o Bobina con Cinta Magnética para grabación de audio en Magnetófonos.
A partir de 1933 el uso de rieles, carretes o bobinas fueron los más utilizados para transportar el
medio magnético, unidades imprescindibles para el funcionamiento de los equipos de grabación
de audio y vídeo.
La aparición de otro formato de grabación y reproducción fue utilizada en la radio, televisión y
para la telefonía, los primeros cartuchos aparecieron en 1959 con el formato nombrado Fidelipac
o Lear Cartridge para grabaciones de 8 pistas de audio, en 1969 se utilizaron los primeros
cartuchos en RCA (Radio Corporation of America) para introducir comerciales en televisión con el
nuevo equipo de videograbación lanzado como “cartuchera o librería robótica”.
Con la necesidad de almacenar datos en las primeras calculadoras personales de HP (Hewllet
Packard) se introdujo en 1972 la calculadora DC300 con cartucho de cinta para descargar
programas en el sistema central electrónica de AT&T, columna vertebral del sistema telefónico
mundial en los setentas.38
En 1963 Philips introdujo el formato compact cassette, al principio se reproducía en pequeñas
máquinas portátiles como la grabadora Norelco Carry-Corder 150. El formato de la cinta del
cassette era de 1/8 de pulgada, contenía 4-pistas y corría a 1-7/8 ips (pulgada por segundo),
almacenaba 30 o 45 minutos de música estéreo por lado. El cassette Philips tenía un 1/4 del
tamaño de los cartuchos marca Fidelipac o Lear cartridge,39 fue muy popular este formato de
transportación del medio ya que la licencia del formato se liberó y fue gratuita, podía ser
empleada por cualquier fabricante libre de demanda legal.
Cassette de diferentes formatos.
Sony aprovechó esta alternativa para transportar el medio de grabación, en 1969 presentó el
prototipo y lanzó el primer formato de videograbadora U-matic de cassette para el mercado
profesional en 197140 en 1975 el formato Betamax fue introducido41 para ser reproducido en los
aparatos de video caseros conocidos como VCR (Video Cassette Recorder).
Ampex y Avco buscaban seguir desarrollando nuevos mercados de consumo casero de grabadoras
VCR con formato de ½ pulgada de cinta magnética. En 1976 JVC introdujo el formato VHS (Video
Home System)el cual compitió por el mercado de consumo para imponer su formato.42
http://es.wikipedia.org/wiki/Cinta_magn%C3%A9tica
1976: Disquetera y Disquete de 5,25".
Disquetera
Véase también: Disquete
“Disquetera”
“Unidad de disco flexible”
Floppy Disk Drives 8 5 3.jpg
Unidades de discos flexibles de 8"; 5¼" y 3½".
Fecha de invención: 1969: 8"
1976: 5¼"
1983: 3½"
Inventado por: Equipo de IBM, liderado por David Noble.
Conectado a:
Controlador mediante cables
Discontinuado: años 2000
La disquetera, unidad de disquete o unidad de disco flexible (en inglés: Floppy Disk Drive, FDD) es
el dispositivo o unidad lectora/grabadora de disquetes o discos flexibles.
Evolución[editar]
Disquetera de 5¼ pulgadas.
Disquetera de 5¼" (arriba) y disquetera de 3½" (abajo).
Disquetera de 3½" con capacidad de 2,88 MB.
Unidad SuperDisk externa con puerto paralelo y disquete LS 120.
Los primeros disquetes utilizados en la informática fueron de 8 pulgadas de diámetro (20,32
centímetros) y podían almacenar una pequeña cantidad de datos comparados con los disquetes de
5¼ pulgadas (13,335 cm).
Los disquetes de 5¼" utilizaban la misma tecnología de base y los fabricaron en varias versiones,
siendo el más popular el disquete de Doble Cara/Doble Densidad (DS/DD), con capacidad de 360
KiB. El tamaño máximo que se fabricó en este formato, fue el de Alta Densidad (HD, High Density),
con capacidad de 1200 KiB.
Después se fabricaron disqueteras de 3½ pulgadas (8,89 cm) y disquetes de 2 modelos:
disquete de baja densidad, con capacidad de 720 KiB.
disquete de alta densidad, con capacidad de 1440 KiB (llamados “1,44 MB” incorrectamente
porque su capacidad no era de 1,44 MB ni de 1,44 MiB).
La única diferencia física es que los disquetes de 720 KiB tienen un agujero en la parte trasera del
disco y los de 1440 KiB tienen dos agujeros en el disco.
Hay otros disquetes: como los cuádruples de Densidad Extra (ED, Extra Density) que llegan hasta
2880 KiB (llamados “2,88 MB”) y los discos Zip que llegan a 750 MB.
Véase también: Disco magneto-óptico
Formatos[editar]
Refiriéndose exclusivamente a la computadora personal (PC), en las unidades de disquetes sólo
han existido dos formatos físicos considerados como estándares, el de 5¼" y el de 3½".
En formato de 5¼", la IBM PC original sólo contaba con unidades de 160 KiB (es decir 160x1024
bytes, que antes se decía “160 KB”; actualmente esta cantidad se dice correctamente 160 KiB,
porque 1 KiB = 1024 B). Esta baja capacidad se debía a que dichos dispositivos sólo aprovechaban
una cara de los disquetes.
Luego, con la incorporación de la IBM PC XT, vinieron las unidades de doble cara con capacidad de
360 KiB (DD, Dual Density o doble densidad), y más tarde, con la computadora IBM PC AT, la
unidad de alta densidad (HD) y 1200 KiB “1,2 MB”.
El formato de 3½", IBM lo impuso en sus modelos IBM PS/2. Para la gama 8086, las disqueteras de
720 KiB (DD o doble densidad) y para el resto las de 1440 KiB (HD o alta densidad) que son los
últimos que perduraron. En este mismo formato, también surgió un nuevo modelo de 2880 KiB
(EHD, Extra High Density o extra alta densidad), pero raramente consiguió utilizarse.
Características[editar]
Por regla general, las disqueteras de 5¼ y 3½ las reconoce el sistema operativo sin problemas, ya
que el BIOS (Sistema Básico de Entrada/Salida) trae incorporadas las rutinas de manejo (se
acceden mediante la Int 13h). El BIOS venía configurado de fábrica para que primero arranque con
la unidad A (disquetera).
Disquete
Véase también: Disquetera
“Disquete”
“Disco flexible”
Floppy disk 2009 G1.jpg
Disquetes: de 8" (izquierda), de 5¼" (centro) y de 3½" (derecha).
Fecha de invención: 1969: 8"
1976: 5¼"
1983: 3½".
Inventado por: Equipo de IBM, liderado por David Noble
Discontinuado: años 2000
El disquete o disco flexible (en inglés, diskette o floppy disk) es un soporte de almacenamiento de
datos de tipo magnético, formado por una fina lámina circular (disco) de material magnetizable y
flexible (de ahí su denominación), encerrada en una cubierta de plástico, cuadrada o rectangular,
que se utilizaba en la computadora, por ejemplo: para disco de arranque, para trasladar datos e
información de una computadora a otra, o simplemente para almacenar y resguardar archivos.
La disquetera, unidad de disquete o unidad de disco flexible (FDD, del inglés Floppy Disk Drive) es
el dispositivo o unidad que lee y escribe los disquetes, es decir, es la unidad lectora/grabadora de
disquetes.
Este tipo de soporte de almacenamiento es vulnerable a la suciedad y los campos magnéticos
externos, por lo que deja de funcionar con el tiempo o por el desgaste.
Formatos[editar]
Los tamaños de los disquetes suelen denominarse empleando el Sistema Anglosajón de Unidades,
incluso en los países en los que el Sistema Internacional de Unidades es el estándar,
desconsiderando que en algunos casos, éstos están definidos en el sistema métrico (por ejemplo,
el disquete de 3½ pulgadas mide 8,89 cm). De forma general, las capacidades de los discos
formateados se establecen en términos de kilobytes binarios (un sector suele tener 512 bytes). Sin
embargo, los tamaños recientes de los discos se suelen denominar en unidades híbridas; es decir,
un disco de 1,44 MB tiene en realidad 1,44×1000×1024 bytes = 1440 KiB , y no 1,44 mebibytes (lo
cual seria 1,44×1024×1024 bytes), ni 1,44 megabytes (1,44×1000×1000).
Secuencia histórica de formatos de disquetes, incluyendo el disquete de 3½ pulgadas HD (último
formato popular adoptado).
Formato del disquete Año de introducción Capacidad de almacenamiento
(en kibibytes, si no está indicado) Capacidad
comercializada1
8 pulgadas IBM 23FD (solo lectura) 1971 79,7 ?
8 pulgadas Memorex 650 1972 183,1 150 kB
8 pulgadas IBM 33FD / Shugart 901 1973 256 256 kB
8 pulgadas IBM 43FD / Shugart 850 DD 1976 512 512 KB
5¼ pulgadas (35 pistas) 1976 89,6 110 KB
8 pulgadas de dos caras 1977 1200 1,2 MB
5¼ pulgadas DD 1978 360 360 kB
3½ pulgadas
HP de una cara 1982 280 264 kB
3 pulgadas 1982 360 ←
3½ pulgadas (puesta a la venta DD) 1984 720 720 kB
5¼ pulgadas QD 1984 1200 1,2 MB
3 pulgadas DD 1984 720 ←
3 pulgadas
Mitsumi Quick Disk 1985 128 a 256 ←
2 pulgadas 1985 720 ←
5¼ pulgadas Perpendicular 1986 100 MiB ←
3½ pulgadas HD 1987 1440 1,44 MB
3½ pulgadas ED 1990 2880 2,88 MB
3½ pulgadas LS-120 (SuperDisk) 1996 120,375 MiB 120 MB
3½ pulgadas LS-240 (SuperDisk) 1997 240,75 MiB 240 MB
3½ pulgadas HiFD 1998/1999 150/200 MiB 150/200 MB
Referencias:
Acrónimos: DD = Doble Densidad; QD = Cuádruple Densidad; HD = Alta Densidad; ED = Densidad
Extendida; LS = Servo Láser; HiFD = Disco Flexible de Alta Capacidad
Fechas y capacidades marcadas con ? son de origen desconocido y necesitan fuentes; otras
capacidades listadas referidas a:
Para 8 pulgadas: formato estándar de IBM usado en la computadora central System/370 y
sistemas más nuevos.
Para 5¼ y 3½ pulgadas: formato estándar de PC, capacidades cuadriplicadas, son el tamaño total
de todos los sectores del disquete e incluyen espacio para el sector boot del sistema de archivos.2
Otros formatos podrían conseguir más o menos capacidad de los mismos lectores y discos.
Disquetes: de 8" (arriba), de 3½" (izq. abajo) y de 5¼" (der. abajo).
Disquetes: de 8" (izq.), de 3½" (der. arriba) y de 5¼" (der. abajo).
Disquetes, de izq. a der.: de 8", de 5¼", de 5¼" duro, de 3½" y un DVD+R.
Disquete de 5¼".
Disquete de 3½".
Disquete de 3", usado ampliamente en equipos Amstrad CPC.
Disquete de alta densidad con inscripción HD (izq.) y disquete común (der.).
Disquete de 8", disquete de 3½" y Memoria USB.
Disquete LS 120.
disquete de 8 pulgadas
Unidad SuperDisk con puerto paralelo y disquete LS 120.
Evolución[editar]
Disquete de 8"[editar]
En 1967, IBM encomendó una nueva tarea a su centro de desarrollo y almacenamiento de San
José (California): desarrollar un sistema sencillo y barato para cargar microcódigo en los
System/370 de sus computadoras centrales.
Los primeros disquetes utilizados en la informática fueron de 8 pulgadas de diámetro (20,32
centímetros) y podían almacenar una pequeña cantidad de datos comparados con los disquetes de
5¼ pulgadas (13,335 cm).
Disquete de 5¼"[editar]
Los disquetes de 5¼" utilizaban la misma tecnología de base que los anteriores y los fabricaron en
varias versiones, siendo el más popular el disquete de Doble Cara/Doble Densidad (DS/DD), con
capacidad de 360 KiB. El tamaño máximo que se fabricó en este formato, fue el de Alta Densidad
(HD, High Density), con capacidad de 1200 KiB.
Diagrama de componentes de un disquete de 3,5 pulgadas:
(1) Agujero indicador de Alta Densidad.
(2) Eje giratorio de metal.
(3) Cubierta o lámina de metal obturadora.
(4) Carcasa de plástico.
(5) Tela de protección.
(6) Disco magnético flexible.
(7) Sector.
Disquete de 3½"[editar]
Después se fabricaron disqueteras de 3½ pulgadas (8,89 cm) y disquetes de 2 modelos:
disquete de baja densidad, con capacidad de 720 KiB.
disquete de alta densidad, con capacidad de 1440 KiB (llamados “1,44 MB” incorrectamente
porque su capacidad no era de 1,44 MB ni de 1,44 MiB).
La única diferencia física es que los disquetes de 720 KiB tienen un agujero en la parte trasera del
disco y los de 1440 KiB tienen dos agujeros en el disco.
Disquete de 3½" de Densidad Extra[editar]
Hay otros disquetes, como los cuádruples de Densidad Extra (ED, Extra Density) que llegan hasta
2880 KiB (llamados “2,88 MB”).
Otros discos[editar]
Véase también: Disco magneto-óptico
SuperDisk de 3½ pulgadas, denominado LS-120, con capacidad de 120,375 MiB (120 MB),
introducido en 1996.
SuperDisk de 3½ pulgadas, denominado LS-240, con capacidad de 240,75 MiB (240 MB),
introducido en 1997.
Discos Zip con capacidad de hasta 750 MB.
Uso en la actualidad[editar]
Esta unidad está obsoleta y son muchos los computadores que ya no la incorporan, por la
aparición de nuevos dispositivos de almacenamiento más manejables, que además disponen de
mucha más memoria física, como por ejemplo las memorias USB. Una memoria USB de 8 Gigabyte
de memoria equivale aproximadamente a 5,688 disquetes. Algunos países siguen utilizando estos
medios de almacenamiento para presentaciones impositivas anuales.3
No obstante, estos medios de almacenamiento siguen siendo de una gran utilidad como discos de
arranque en caso de averías o emergencias en el sistema operativo principal o el disco duro, dado
su carácter de estándar universal que en los IBM PC compatibles no necesita ningún tipo de
controladora adicional para ser detectados en el proceso de carga por la BIOS y dado que, a
diferencia del CD-ROM, es fácilmente escribible. Lo que, en situaciones de emergencia, los
convierte en un sistema altamente fiable, básico y difícilmente sustituible. Las PC aún incluyen en
sus BIOS lo necesario para el uso del disquete en caso de ser instalada una unidad, no obstante
muchas marcas de PC a partir de 1997 han comenzado a incluir arranque por CD/DVD, así como
por medio de unidades externas arrancables que pudiesen ser discos duros removibles 4 ,
Memorias USB y otros medios que posean alguna información de arranque, y en las Netbooks al
prescindir de unidades externas como CD/DVD Hacen uso extensivo de un arranque por USB O
tarjeta de memoria según el fabricante.
Impacto en la sociedad[editar]
Los disquetes (cuyo nombre fue escogido para ser similar a la palabra "casete"), gozaron de una
gran popularidad en las décadas de los ochenta y los noventa, usándose en ordenadores
domésticos y personales tales como Apple II, Macintosh, MSX 2/2+/Turbo R, Amstrad PCW,
Amstrad CPC 664 y Amstrad CPC 6128 (y opcionalmente Amstrad CPC 464), ZX Spectrum +3,
Commodore 64, Amiga e IBM PC para distribuir software, almacenar información de forma rápida
y eficaz, transferir datos entre ordenadores y crear pequeñas copias de seguridad, entre otros
usos. Muchos almacenaban de forma permanente el núcleo de sus sistemas operativos en
memorias ROM, pero guardaban sus sistemas operativos en un disquete, como ocurría con CP/M
o, posteriormente, con DOS.
También fue usado en la industria de los videojuegos, cuando Nintendo hizo un formato propio de
disquete, parecido al actual de 3 1/2, para usar con un periférico diseñado para la consola
Famicom llamado Famicom Disk Drive. No obstante, solo se lanzó en Japón. También se vendían
disquetes en blanco, para grabar juegos en la calle, mediante máquinas automáticas instaladas en
algunos lugares de Japón.
Con la llegada de la década de los noventa, el aumento del tamaño del software hizo que muchos
programas se distribuyeran en conjuntos de disquetes. Hacia mediados de los noventa, la
distribución del software fue migrando gradualmente hacia el CD-ROM, y se introdujeron formatos
de copias de seguridad de mayor densidad, como los discos Zip de Iomega. Asimismo, en grandes,
medianas e incluso pequeñas empresas, las copias de seguridad empezaron a efectuarse de
manera sistemática en cintas magnéticas de alta capacidad y muy bajo coste, como cintas de audio
digitales (DAT) o streamers. Con la llegada del acceso total a la Internet, de las redes Ethernet
baratas y de las memorias flash ó USB de bajo costo, los disquetes han dejado ser necesarios para
la transferencia rápida de datos.
La aparición y comercialización en gran escala de unidades grabadoras de discos ópticos y
compactos, y de unidades de CD grabable y regrabable (CD-R/CD-RW), el abaratamiento
exponencial y progresivo de sus costes de producción y precios de venta al consumidor, y su
introducción paulatina y posterior generalización en la mayoría de ordenadores personales y de
hogares, así como la innovación de nuevos formatos y estándares (CD de 80 minutos, de alta
densidad, DVD, DVD de doble cara o doble capa, HD DVD, Blu-Ray, etc.) que poco a poco van
multiplicando la capacidad y velocidad de almacenamiento, han permitido la sustitución paulatina
de los engorrosos sistemas de cinta magnética por accesibles y rápidos sistemas de disco óptico
como soporte principal y generalizado de copias de seguridad. Un intento a finales de los noventa
(sin éxito en el mercado), de continuar con los disquetes fue el SuperDisk (LS-120), con una
capacidad de 120 MB (en realidad 120,375 MiB5 ), siendo el lector compatible con los disquetes
estándar de 3½ pulgadas.
La clave de este desplazamiento progresivo está en el mayor coste por bit de la superficie
magnética frente a la superficie de un medio óptico, su mayor fragilidad ya que necesitan ser
protegidos del contacto con el exterior, del polvo, la luz, cambios de humedad y temperatura,
electricidad estática, mediante sobres protectores o cierres herméticos al vacío.
Disquetera de 3½"
Sin embargo, muchos fabricantes se niegan a suprimir la disquetera de sus equipos personales por
razones de compatibilidad y porque los departamentos de la tecnología de la información de
muchas empresas aprecian un mecanismo de transferencia de archivos integrado que siempre
funcionará correctamente sin requerir de ningún tipo de controlador de dispositivo, en inglés
device driver (más allá del del propio BIOS). Apple Computer fue el primer fabricante que eliminó
la disquetera en uno de sus ordenadores con el modelo iMac en 1998, y Dell hizo que la disquetera
fuera opcional en algunos de sus modelos en 2003. Asimismo, muchos equipos, en la actualidad,
tienden a proveerse, por omisión, sin una unidad de disco flexible instalada, aunque esta puede
incluirse como opcional en todo momento, al seguir habiendo soporte en las actuales placas base
ATX y en su correspondiente BIOS. Sin embargo, hasta la fecha, estos movimientos todavía no han
marcado el fin de los disquetes como medio popular de almacenamiento e intercambio de datos.
es.wikipedia.org/wiki/Disquetera
es.wikipedia.org/wiki/Disquete
1980: IBM 3380
La invención del disco magnético, de la cual IBM fue pionera en los 50, fue un componente crítico
en la revolución de las computadoras. En este artículo se analizan los principales discos de
almacenamiento introducidos por IBM en los 50, 60 y principios de los 70.
El mecanismo básico de las unidades de disco rígido no ha cambiado desde el IBM 1301. Hoy se
utilizan los mismos estándares que se usaban en los 50 para medir el rendimiento de las unidades
de disco.
Este estudio concluye con un moderno disco rígido de un IBM PC para comparación. Pocos
productos en la historia han tenido una espectacular disminución en precio y tamaño, así como
también un notable incremento en la capacidad.
IBM 3380[editar]
Módulo de unidad de disco IBM 3380.
La Unidad de Almacenamiento de Acceso Directo IBM 3380 fue introducida en junio de 1980.
Usaba la nueva tecnología de película fina y tenía una capacidad de 2,52 gigabytes con una tasa de
transferencia de 3 megabytes por segundo. El tiempo de acceso promedio era de 16 ms. El precio
de compra cuando fue introducido estaba en el rango de $81.000 a $142.200. Debido a varios
problemas que aparecieron, las primeras unidades no se entregaron hasta octubre de 1981.15
http://es.wikipedia.org/wiki/Primeros_discos_IBM#IBM_3380
1980: ST-506
El ST-506 fue el primer disco duro de 5,25 pulgadas. Introducido por Seagate Technology (en ese
momento Shugart Technology), almacenaba hasta 5 MB después de formateado. El similar (pero
más caro) de 10 MB ST-412 fue introducido en 1981.
Ambos usaban la codificación MFM (utilizado ya extensamente en discos duros). La subsequente
extensión del ST-412 usaba el RLL para lograr un 50% de aumento en capacidad y transferencia de
datos.
El ST-506 era comunicada con el sistema de computadora usando una controladora de disco. La
interfaz del ST-506 fue un derivado de la interfaz SA1000 de Shugart Associates, la cual era basada
en la interfaz de la disquetera, determinando un diseño relativamente fácil. En la interfaz del ST-
506, el disco era conectado a la tarjeta controlador con 2 cables y un tercer cable proveedor de
energía.
Conector[editar]
Del Manual OEM del ST506 y ST412
Control Connector Pinout
GROUND 1 2 ~HD SLCT 3 (or ~Reduced Write Current)
GROUND 3 4 ~HD SLCT 2
GROUND 5 6 ~WRITE GATE
GROUND 7 8 ~SEEK CMPLT
GROUND 9 10 ~TRACK 0
GROUND 11 12 ~WRITE FAULT
GROUND 13 14 ~HD SLCT 0
Key (no pin) 15 16 Reserved
GROUND 17 18 ~HD SLCT 1
GROUND 19 20 ~INDEX
GROUND 21 22 ~READY
GROUND 23 24 ~STEP
GROUND 25 26 ~DRV SLCT 0
GROUND 27 28 ~DRV SLCT 1
GROUND 29 30 ~DRV SLCT 2
GROUND 31 32 ~DRV SLCT 3
GROUND 33 34 ~DIRECTION IN
Data Connector Pinout
~DRV SLCTD 1 2 GROUND
No connection 3 4 GROUND
No connection 5 6 GROUND
No connection 7 8 Key (no pin)
No connection 9 10 No connection
GROUND 11 12 GROUND
+MFM WRITE 13 14 -MFM WRITE
GROUND 15 16 GROUND
+MFM READ 17 18 -MFM READ
GROUND 19 20 GROUND
http://es.wikipedia.org/wiki/ST-506
1987: Casete de Cinta de Audio Digital y Casetera para DAT (del inglés, Digital Audio Tape, DAT).
Cinta de audio digital
(Redirigido desde «Cinta de Audio Digital»)
Cinta de Audio Digital con su estuche, comparado con el tamaño de una batería tamaño AA.
Cinta de Audio Digital, (del inglés Digital Audio Tape y abreviado DAT) es un medio de grabación y
reproducción de señal desarrollado por Sony a mediados de 1980. Fue el primer formato de casete
digital comercializado y, en apariencia, es similar a una cinta de audio compacto, utilizando cinta
magnética de 4 mm encapsulada en una carcasa protectora, pero es aproximadamente la mitad
del tamaño con 73 mm × 54 mm × 10,5 mm. Como su nombre lo indica, la grabación se realiza de
forma digital en lugar de analógica, la grabación y conversión a DAT tiene mayor, igual o menor
tasa de muestreo que un CD (48, 44,1 o 32 kHz de frecuencia de muestreo y 16 bits de
cuantificación). Si se copia una fuente digital entonces la DAT producirá una copia exacta,
diferente de otros medios digitales como el Casete Compacto Digital o el MiniDisc Hi-MD, los
cuales tienen compresión con pérdida de datos.
Como muchos formatos de vídeo cassete, un casete DAT solo puede ser grabado por un lado, a
diferencia de un casete de audio análogo compacto.
Como más de 80 compañías (en su mayoría niponas) estaban desarrollando el DAT en paralelo,
hubo muchos puntos en los que no se llegó a un acuerdo sobre el estándar a utilizar. La
investigación derivó en dos tecnologías:
S-DAT (DAT de Cabeza Estacionaria)
R-DAT (DAT de Cabeza Rotatoria).
Ni uno ni otro formato tienen su futuro asegurado. El DAT se dirige a una clientela profesional (por
su elevado precio 140.000 Pts., 840 Euros) lo aleja de la franja del consumo doméstico, en un
momento (2005) en que la tecnología DAT ha quedado superada por los formatos existentes de
discos ópticos como: CD-R, CD-RW y DVD-Audio, DVD-R y DVD-RW.
Es un formato dirigido al sector profesional que requería en su momento un sistema de grabación
digital con el cual poder efectuar masters para CD, ya que en el momento de la invención del disco
compacto todos master 2 pistas se realizaban en cinta abierta de 1/4 de pulgada.
El DAT completaba así una novedosa línea, en aquellos momentos, en la cual se incluían los
sistemas Multipista PCM de Sony (en formato S-DAT o DASH "Digital Audio Tape Stationary
Head"), con los cuales se podía realizar una grabación, mezcla y posterior transferencia a CD
digitalmente.
Actualmente queda superado por la potencia de los PC, que dotados de potentes softwares de
edición, permiten la mezcla y la creación posterior del CD, el cual se va a "copiar" en la empresa de
fabricación de CD.
Casetes DAT[editar]
Los tipos de cinta y sus potencialidades en el R-DAT y S-DAT no son los mismos. Aunque tienen en
común su naturaleza, su ancho y su grosor.
La DAT es una cinta de metal de alta coercitividad (1400 oersted) y un ancho de cinta de 3,81 mm
(1/7 de pulgada) y un grosor de 13 micras. Lo que se traduce en que su tamaño es
aproximadamente ½ de un casete analógico.
Las cintas R-DAT y S-DAT se diferencian en las dimensiones concretas del cartucho en el que van
insertadas.
http://es.wikipedia.org/wiki/Cinta_de_audio_digital
1990: Disco compacto (Compact Disc, CD) y Compactera o Unidad de CD-R o Lectora de CD.
El disco compacto (conocido popularmente como CD por las siglas en inglés de Compact Disc) es
un disco óptico utilizado para almacenar datos en formato digital, consistentes en cualquier tipo
de información (audio, imágenes, vídeo, documentos y otros datos).
Los CD estándar tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y pueden
almacenar hasta 80 minutos de audio o 700 MB de datos. Los Mini-CD tienen 8 cm y son usados
para la distribución de sencillos y de controladores guardando hasta 24 minutos de audio o 214
MB de datos.
Esta tecnología fue inicialmente utilizada para el CD audio, y más tarde fue expandida y adaptada
para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R
y CD-RW) y el almacenamiento de datos mixtos (CD-i, Photo CD y CD EXTRA).
El disco compacto goza de popularidad en el mundo actual. En el año 2007 se habían vendido 200
mil millones de CD en el mundo desde su creación. Aun así, los discos compactos se
complementan con otros tipos de distribución digital y almacenamiento, como las memorias USB,
las tarjetas SD, los discos duros y las unidades de estado sólido. Desde su pico en el año 2000, las
ventas de CD han disminuido alrededor de un 50%.[cita requerida]
Historia[editar]
El disco compacto es una evolución tecnológica del LaserDisc. Los prototipos fueron desarrollados
por Philips y Sony, primero de manera independiente y posteriormente de manera conjunta. Fue
presentado en junio de 1980 a la industria, y se adhirieron al nuevo producto 40 compañías de
todo el mundo mediante la obtención de las licencias correspondientes para la producción de
reproductores y discos.
Prototipos de discos ópticos de audio digital[editar]
En 1974, una iniciativa fue tomada por L. Ottens, director del grupo de la industria de audio dentro
de la Corporación Tecnológica de Phillips. Se formó un grupo de proyecto de siete personas para
desarrollar un disco de audio óptico con un diámetro de 20 cm con una calidad de sonido superior
a la de los discos de vinilo grandes y frágiles. En marzo de 1974, durante una reunión del grupo de
audio, dos ingenieros del laboratorio de investigación de Philips recomiendan el uso de un formato
digital en el disco óptico de 20 cm, ya que se podría añadir un código de corrección de errores. No
fue hasta 1977 que los directores del grupo decidieron establecer un laboratorio con la misión de
crear un pequeño disco de audio digital óptico y un pequeño reproductor. Se eligió el término
"disco compacto", en consonancia con otro producto de Philips, el casete compacto. En lugar de
los 20 cm de tamaño original, el diámetro de este disco compacto se fijó en 11,5 cm, la diagonal de
un casete compacto.
Mientras tanto, Sony mostró por primera vez públicamente un disco de audio digital óptico en
septiembre de 1976. En septiembre de 1978, la compañía mostró un disco de audio digital óptico
con un tiempo de 150 minutos de reproducción, velocidad de muestreo de 44.056 Hz, resolución
lineal de 16 bits y código de corrección de errores de cruz-entrelazado, especificaciones similares a
las que más tarde se establecieron en el formato estándar del Compact Disc en 1980.
Colaboración y estandarización[editar]
Más tarde, en 1979, Sony y Philips crearon un grupo de trabajo conjunto de los ingenieros para
diseñar un nuevo disco de audio digital. Liderados por Kees Schouhamer Immink y Toshitada Doi,
la investigación impulsó la tecnología del láser y el disco óptico que se inició de forma
independiente por las dos empresas. Después de un año de experimentación y discusión, el grupo
de trabajo produjo el Libro Rojo de estándar CD-DA. Publicado por primera vez en 1980, la norma
fue adoptada formalmente por la Comisión Electrotécnica Internacional como estándar
internacional en 1987, con varias enmiendas que comenzaron a formar parte de la norma en 1996.
Philips contribuyó al proceso de manufactura general, basado en la tecnología del LaserDisc video.
Philips también contribuyó con el sistema de modulación Eight-to-Fourteen (EFM), que ofrece una
cierta resistencia a defectos tales como rasguños y huellas dactilares, mientras que Sony
contribuyo con el método de corrección de errores CIRC.
La Historia de Compact Disc,1 contada por un ex miembro del grupo de trabajo, entrega
antecedentes sobre las muchas decisiones técnicas, incluida la elección de la frecuencia de
muestreo, tiempo de reproducción, y el diámetro del disco. El grupo de trabajo estuvo formado
por alrededor de cuatro a ocho personas, aunque según Philips, el disco compacto fue "inventado
colectivamente por un grupo grande de personas que trabajan como un equipo".
Comercialización[editar]
En 1981, el director de orquesta Herbert Von Karajan convencido del valor de los discos
compactos, los promovió durante el Festival de Salzburgo, y desde ese momento empezó su éxito.
Los primeros títulos grabados en discos compactos en Europa fueron la Sinfonía Alpina de Richard
Strauss, los valses de Frédéric Chopin interpretados por el pianista chileno Claudio Arrau, y el
álbum The Visitors de ABBA, en 1983 se produciría el primer disco compacto en los Estados Unidos
por CBS (hoy Sony Music) siendo el primer título en el mercado un álbum de Billy Joel.2 La
producción de discos compactos se concentró por varios años en los Estados Unidos y Alemania,
de donde eran distribuidos a todo el mundo.
Fue en octubre de 1982 cuando Sony y Philips comenzaron a comercializar el CD.
En el año 1984 salieron al mundo de la informática, permitiendo almacenar hasta 650 MB.
Detalles físicos[editar]
A pesar de que puede haber variaciones en la composición de los materiales empleados en la
fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un
disco grueso, de 1,2 mm, de policarbonato de plástico, al que se le añade una capa reflectante de
aluminio, utilizada para obtener más longevidad de los datos. Así se reflejará la luz del láser (en el
rango de espectro infrarrojo, y por tanto no apreciable visualmente); posteriormente se le añade
una capa protectora de laca, que actúa como protector del aluminio y, opcionalmente, una
etiqueta en la parte superior. Los métodos comunes de impresión en los CD son la serigrafía y la
impresión ófset. En el caso de los CD-R y CD-RW se usa oro, plata, y aleaciones de las mismas, que
por su ductilidad permite a los láseres grabar sobre ella, cosa que no se podría hacer sobre el
aluminio con láseres de baja potencia.
Especificaciones[editar]
Velocidad de la exploración: 1,2–1,4 m/s, equivale aproximadamente a entre 500 rpm
(revoluciones por minuto) y 200 rpm, en modo de lectura CLV (Constant Linear Velocity:
'Velocidad Lineal Constante').
Distancia entre pistas: 1,6 µm.
Diámetro del disco: 120 u 80 mm.
Grosor del disco: 1,2 mm.
Radio del área interna del disco: 25 mm.
Radio del área externa del disco: 60 mm.
Diámetro del orificio central: 15 mm.
Tipos de disco compacto:
Sólo lectura: CD-ROM (Compact Disc - Read Only Memory).
Grabable: CD-R (Compact Disc - Recordable).
Regrabable: CD-RW (Compact Disc - Re-Writable).
De audio: CD-DA (Compact Disc - Digital Audio).
Un CD de audio se reproduce a una velocidad tal que se leen 150 KB por segundo. Esta velocidad
base se usa como referencia para identificar otros lectores como los de ordenador, de modo que si
un lector indica 24x, significa que lee 24 x 150 kB = 3.600 kB/s, aunque se ha de considerar que los
lectores con indicación de velocidad superior a 4x no funcionan con velocidad angular variable
como los lectores de CD-DA, sino que emplean velocidad de giro constante, siendo el radio
obtenible por la fórmula anterior el máximo alcanzable.
Estándares[editar]
Para más información sobre los estándares relacionados con el mundo del Disco Compacto, visite
Rainbow Books.
Una vez resuelto el problema de almacenar los datos, queda el de interpretarlos de forma
correcta. Para ello, las empresas creadoras del disco compacto definieron una serie de estándares,
cada uno de los cuales reflejaba un nivel distinto. Cada documento fue encuadernado en un color
diferente, dando nombre a cada uno de los «libros arcoíris» (Rainbow Books).
Tiempo de acceso[editar]
Para describir la calidad de un CD-ROM este es probablemente uno de los parámetros más
interesantes. El tiempo de acceso se toma como la cantidad de tiempo que le lleva al dispositivo
desde que comienza el proceso de lectura hasta que los datos comienzan a ser leídos. Este
parámetro viene dado por: la latencia, el tiempo de búsqueda y el tiempo de cambio de velocidad
(en los dispositivos CLV). Téngase en cuenta que el movimiento de búsqueda del cabezal y la
aceleración del disco se realizan al mismo tiempo, por lo tanto no estamos hablando de sumar
estos componentes para obtener el tiempo de acceso sino de procesos que justifican esta medida.
Este parámetro, obviamente, depende directamente de la velocidad de la unidad de CD-ROM ya
que los componentes de este también dependen de ella. La razón por la que el tiempo de acceso
es mayor en los CD-rom respecto a los discos duros es la construcción de estos. La disposición de
cilindros de los discos duros reduce considerablemente los tiempos de búsqueda. Por su parte los
CD-ROM no fueron inicialmente ideados para el acceso aleatorio sino para acceso secuencial de
los CD de audio. Los datos se disponen en espiral en la superficie del disco y el tiempo de
búsqueda es por lo tanto mucho mayor.
Una cuestión a tener en cuenta es el reclamo utilizado en muchas ocasiones por los fabricantes, es
decir, si las tasas de acceso más rápidas se encuentran en los 100 ms (150 ms es un tiempo de
acceso típico) intentarán convencernos de que un CD-ROM cuya velocidad de acceso es de 90 ms
es infinitamente mejor cuando la realidad es que la diferencia es en la práctica inapreciable, por
supuesto que cuanto más rápido sea un CD-ROM mejor, pero hay que tener en cuenta qué precio
estamos dispuestos a pagar por una característica que luego no vamos a apreciar.
Los primeros CD-ROM operaban a la misma velocidad que los CD de audio estándar: de 210 a 539
RPM dependiendo de la posición del cabezal, con lo que se obtenía una razón de transferencia de
150 KB/s, velocidad con la que se garantizaba lo que se conoce como calidad CD de audio. No
obstante, en aplicaciones de almacenamiento de datos interesa la mayor velocidad posible de
transferencia para lo que es suficiente aumentar la velocidad de rotación del disco. Así aparecen
los CD-ROM 2X, 4X,.... 24X,?X que simplemente duplican, cuadriplican, etc. la velocidad de
transferencia.
La mayoría de los dispositivos de menor velocidad que 12X usan CLV, los más modernos y rápidos,
no obstante, optan por la opción CAV. Al usar CAV, la velocidad de transferencia de datos varía
según la posición que ocupen estos en el disco al permanecer la velocidad angular constante. Un
aspecto importante al hablar de los CD-ROM de velocidades 12X o mayores es, a que nos
referimos realmente cuando hablamos de velocidad 12X, dado que en este caso no tenemos una
velocidad de transferencia 12 veces mayor que la referencia y esta ni siquiera es una velocidad
constante. Cuando se dice que un CD-ROM CAV es 12X queremos decir que la velocidad de giro es
12 veces mayor en el borde del CD. Así un CD-ROM 24X es 24 veces más rápido en el borde pero
en el medio es un 60% más lento respecto a su velocidad máxima.
CLV
Velocidad Velocidad de transferencia
1x 150 KB/s
2x 300 KB/s
4x 600 KB/s
8x 1200 KB/s
10x 1500 KB/s
12x 1800 KB/s
CAV
Velocidad Velocidad mínima Velocidad máxima
16X 930KB/s 2400KB/s
20X 1170KB/s 3000KB/s
24X 1400KB/s 3600KB/s
32X 2100KB/s 4800KB/s
Tiempo de búsqueda[editar]
El tiempo de búsqueda se refiere al tiempo que lleva mover el cabezal de lectura hasta la posición
del disco en la que están los datos. Solo tiene sentido hablar de esta magnitud en media ya que no
es lo mismo alcanzar un dato que está cerca del borde que otro que está cerca del centro. Esta
magnitud forma parte del tiempo de acceso que es un dato mucho más significativo. El tiempo de
búsqueda tiene interés para entender los componentes del tiempo de acceso pero no tanto como
magnitud en sí.
Tiempo de cambio de velocidad[editar]
En los CD-ROM de velocidad lineal constante (CLV), la velocidad de giro del motor dependerá de la
posición que el cabezal de lectura ocupe en el disco, más rápido cuanto más cerca del centro. Esto
implica un tiempo de adaptación para que este motor tome la velocidad adecuada una vez que
conoce el punto en el que se encuentran los datos. Esto se suele conseguir mediante un
microcontrolador que relaciona la posición de los datos con la velocidad de rotación.
En los CD-ROM CAV no tiene sentido esta medida ya que la velocidad de rotación es siempre la
misma, así que la velocidad de acceso se verá beneficiada por esta característica y será algo
menor; no obstante, se debe tener en cuenta que dado que los fabricantes indican la velocidad
máxima para los CD-ROM CAV y esta velocidad es variable, un CD-ROM CLV es mucho más rápido
que otro de la misma velocidad CAV cuanto más cerca del centro del disco.
Caché[editar]
La mayoría de los CD-ROM suelen incluir una pequeña caché cuya misión es reducir el número de
accesos físicos al disco. Cuando se accede a un dato en el disco éste se graba en la caché de
manera que si volvemos a acceder a él, éste se tomará directamente de esta memoria evitando el
lento acceso al disco. Por supuesto, cuanto mayor sea la caché mayor será la velocidad de nuestro
equipo pero tampoco hay demasiada diferencia de velocidad entre distintos equipos. Por este
motivo ya que esta memoria solo nos evita el acceso a los datos más recientes que son los que van
sustituyendo dentro de la caché a los que llevan más tiempo y dada la característica, en cuanto a
volumen de información, de las aplicaciones multimedia nada nos evita el tener que acceder al
dispositivo. Este es uno de los parámetros determinantes de la velocidad de este dispositivo.
Obviamente, cuanto más caché tengamos mejor, pero teniendo en cuenta el precio que estamos
dispuestos a pagar por ella.
http://es.wikipedia.org/wiki/Disco_compacto
1993: MiniDisc (MD) Data.
El MiniDisc, miniDisk o MD, es un disco magneto-óptico digital desarrollado en los 90 por la
multinacional de origen japonés Sony, de menor tamaño que los CD convencionales y mayor
capacidad en comparación. La compañía japonesa ha querido pasar página con su emblemático
dispositivo -que nació en Japón en enero de 1992 como un intento de sustituir a los casettes- y ha
anunciado que detendrá la distribución del aparato a partir de marzo de 2013 debido a su
progresiva baja demanda.1
Es un disco óptico de pequeñas dimensiones (7 cm x 6,75 cm x 0,5 cm) y regrabable, de
almacenamiento magneto-óptico diseñado inicialmente para contener hasta 80 minutos de audio
digitalizado. Muy anterior al similar disco óptico encapsulado UMD conocido sobre todo por su
uso en la videoconsola PlayStation Portable.
La tecnología del Minidisc fue anunciada por Sony en 1991, se introdujo en el Mercado el 12 de
enero de 1992, y es capaz de almacenar todo tipo de datos binarios. El formato que se usa para la
música está basado en la compresión ATRAC/ATRAC3, usa DRM, diferentes bitrates, y un muestreo
directo a partir de una señal digital o analógica. En Japón fueron los sustitutos de las cintas de
casete, pero no fue así en el resto del mundo pese a los esfuerzos de Sony, ya que su precio era
elevado. Llegaron a ser populares en el Reino Unido durante tres años (1998-2001) cuando se
comercializaron una selección limitada de álbumes en MiniDisc, además de en CD y cassette, pero
la difusión de las grabadoras de CD-R primero, y la distribución de música por Internet y el auge
del formato MP3 después, no han favorecido su abaratamiento. Actualmente se usan
principalmente para la grabación. Suele ser muy utilizado también en emisoras de radio.
Los discos MiniDisc son más pequeños que los CD, tienen un diámetro de 64 mm, pero su
velocidad de transferencia de datos es menor: 292 kbit/s, frente a los 1,4 Mbit/s que requiere el
CD. Entrega una resolución de 16 bits, utilizando para ello la frecuencia de muestreo estándar 44,1
kHz.
Historia[editar]
Varios minidisc regrabables con distintas duraciones (60 ~ 80 minutos), las cuales han sido
actualizadas a través del tiempo.
El MiniDisc, junto con el TV P (Tele Vision Player) de Matsushita y Philips, fue diseñado para
reemplazar las cintas de cassette como sistema de grabación, pero no tuvo todo el éxito que se
esperaba. No se afianzó en el mercado norteamericano, ni tampoco en el europeo, tan sólo llegó a
ser realmente popular en Japón, donde llegó a copar más de 50% del mercado de reproductores
portátiles de música, aunque hoy en día está siendo rápidamente reemplazado por los
reproductores basados en memoria flash, o los basados en disco duro (como iPod). Su discreto
éxito inicial se achacó al reducido número de álbumes disponibles a la venta, debido a que muy
pocos editores acogieron este nuevo formato de grabación. También tuvo mucho que ver el
elevado coste de los equipos para reproducir/grabar. Los álbumes editados en MD desaparecieron
del mercado a finales de los 90. Las unidades que quedan aún por las tiendas con más solera se
convierten así en pequeñas reliquias geek que no nos sorprendería que terminaran vendiéndose
por eBay y derivados en busca del coleccionista con mejor apuesta.
Sony cayó de nuevo en el error que cometió en la década de los 1970 con el sistema de vídeo
Betamax (más conocido como Beta), y tardó mucho tiempo en licenciar la tecnología del MD;
permitiendo a otros fabricantes como JVC, Sharp, Pioneer, Yamaha y Panasonic, para que
produjeran cada uno sus propios sistemas de MD. El cassette ha ido desapareciendo, y la lucha
para su sustitución entre el CD-R, la memoria flash, y el disco duro, en la que el MiniDisc ha jugado
también su papel, no ha cesado. La principal ventaja que ofrece es su fiabilidad como dispositivo
portátil de almacenamiento de sonido.
Almacenamiento de datos: MD Data[editar]
Pese a que los MD fueron diseñados inicialmente para almacenar audio, Sony anunció en 1993 una
nueva versión llamada MD Data destinada al almacenamiento de datos, que nunca tuvo éxito. Era
capaz de almacenar hasta 140 MB, pero los tiempos de acceso eran demasiado grandes, y la
velocidad de escritura baja en comparación con otros medios. El MD Data no se podía utilizar
como un MD convencional, y era mucho más caro. Más tarde Sony lanzó el MD-Data2, de 650 MB
de capacidad, que fue usado solamente por las vídeocámaras diseñadas para MD. En el 2004
aparece el Hi-MD permitiendo almacenar hasta 1G en datos o audio.
Grabación magneto-óptica[editar]
Artículo principal: Grabación magneto-óptica
El minidisc utiliza un sistema de grabación digital de sonido. La grabación magneto-óptica es un
sistema combinado que graba de forma magnética, pero reproduce de forma óptica.
Los datos se graban en el disco mediante lo que se conoce como recubrimiento de cambio de fase.
La superficie del disco, mientras se encuentra bajo la influencia de un campo magnético, es
calentada por el láser que se utiliza durante la lectura del disco aumentando su potencia durante
la grabación, el calor generado hace que la superficie del disco alcance una temperatura crítica
conocida como el punto de Curie (cerca de 180 °C). Cuando la aleación metálica que conforma el
disco alcanza esta temperatura, modifica su estado de cristalización. (La propia estructura del
material). Aprovechando este cambio en el estado de cristalización, el flujo magnético alinea los
cristales en direcciones opuestas.
Al enfriar el disco rápidamente, el magnetismo inducido, permanece. Esto se debe a que al enfriar
rápidamente, se reflecta menos luz y el material ya no recristaliza adecuadamente, por lo que no
vuelve a su estado original.
Así, la información binaria ha quedado almacenada permanentemente. Los fabricantes aseguran
que es posible almacenar los datos durante 30 años sin distorsiones o pérdidas.
Como en un disco compacto, el minidisc almacena la música en pistas.
Reproducción digital y anti-skip[editar]
Para reproducir los datos, el láser simplemente disminuye la potencia y los lee de forma óptica,
como en una unidad CD convencional.
Durante la reproducción del sonido, el minidisc utiliza un buffer que le permite leer con antelación
los datos almacenados. Un buffer es una memoria de almacenamiento temporal para la
información digital, que permite leerla mientras está esperado para ser procesada. Este Buffer
permite eliminar los “saltos” que se presentan cuando los equipos se someten a vibraciones
fuertes. el reproductor ya tiene almacenado en la memoria lo que debe sonar, lo reproduce y le da
tiempo al lector de recuperarse. Los equipos modernos vienen con un buffer de al menos 40
segundos, lo que hace muy difícil que se presente una interrupción en el sonido.
Diferencias con los CD y las cintas cassette[editar]
Sharp MD-MS701H
Los MD almacenan los datos en un material magneto-óptico. A diferencia de las cintas cassette, el
disco es un medio de acceso aleatorio, cuyo tiempo de acceso es mucho menor que el de las
anteriores. Esto permite que puedan ser editados rápidamente en unidades portátiles. Las pistas
de sonido pueden ser cortadas, combinadas, reordenadas, o borradas fácilmente (no se borran
instantáneamente, sólo son marcadas como tales). En el comienzo del disco, hay una tabla de
contenidos (TOC), que almacena la posición inicial de las pistas que contiene, además de otra
información como el título y el artista de las mismas, además los bloques libres del disco. El
número de caracteres que pueden ser utilizados para el texto está limitado a 1785 a repartir entre
todas las pistas.
A diferencia de las cintas, una pista puede ser fragmentada a lo largo del disco, de hecho, los
primeros MiniDiscs tenían una granularidad de fragmento de 4 segundos de audio. Los trozos más
pequeños que ese tamaño, se guardaban en un bloque igualmente, lo que reduce la capacidad
real del dispositivo. Los grabadores aprovechan los bloques marcados como borrados para
almacenar las nuevas pistas de audio, pero no se proporcionan medios para defragmentar los
discos a nivel de usuario, ya que la operación requeriría dos MD (o suficiente memoria RAM para
almacenar el contenido completo del disco), además de un procesador capaz de poner en orden
los fragmentos para que cada pista ocupe tan sólo uno en disco. La fragmentación de disco es la
principal razón por la cual el reproductor tiene memoria de buffer, ya que, mientras el reproductor
busca el otro trozo de la canción, tiene que reproducir algo para no producir un paron en la
reproducción. El único problema que provoca la fragmentación es el exceso de búsqueda,
reduciendo así la duración de la batería o pila.
Otra ventaja que tiene el MD frente a otro tipo de reproductores de audio (MP3, HDD, etc.), es
que el audio se almacena en “tiras” consecutivas de bits, y la TOC es la que guarda los punteros a
las pistas, permitiendo reproducirlas sin pausa entre ellas.
Al final de una grabación, cuando se pulsa el botón “STOP”, el dispositivo continuará grabando
durante unos segundos los datos que tiene en los buffers. Una vez hecho esto, pasará a grabar la
TOC. Es recomendable no retirar la alimentación del aparato ni agitarlo durante esta operación.
Sony también recomienda mantener la alimentación conectada al aparato durante toda la
grabación, ya que reduce notablemente la duración de las baterías.
Todos los dispositivos están provistos de una protección anticopia conocida como Serial Copy
Management System, que permite copiar un disco o canción desprotegidos tantas veces como se
quiera, pero las copias no pueden volver a ser copiadas, excepto si son pasadas a formato
analógico.
Compresión ATRAC[editar]
El minidisc como código canal (códec de audio) utiliza el sistema de compresión ATRAC (Adaptive
Transform Acoustic Coding). Se trata de un algoritmo de codificación que ofrece una razón de
compresión de 1:4,83. Es decir, logra reducir la carga de datos a 1/5 de lo que necesitaría la señal
original o de lo que requeriría un CD.
El ATRAC utiliza una codificación perceptual que es un sistema de codificación con pérdidas. La
codificación perceptual se basa en las capacidades oído humano. Cuando recibimos una gran
cantidad de estímulos sonoros, nuestro oído sólo nos permite escuchar aquellos de mayor
intensidad, el resto quedan enmascarados y no se oyen. Por el mismo motivo, el ATRAC elimina las
frecuencias que el oído humano no es capaz de reconocer, quedándose sólo con las
audiofrecuencias (20 a 20 000 Hz).
Cada una de estas tres señales es analizada y filtrada independientemente, utilizando la
trasformada directa de coseno modificada MDTC, lo que da lugar a subgrupos de entre 20 y 16
subandas por cada una de las 3 bandas de frecuencia.
Al principio, debido a la alta tasa de compresión del ATRAC, éste no se utilizaba para operar con
audio a nivel profesional.
Con el tiempo, los codificadores ATRAC han mejorado considerablemente desde la primera
generación, y actualmente (2005), se dispone de versiones ATRAC que generan señales de audio
que se escuchan prácticamente idénticas a la fuente original.
Aplicaciones del MD[editar]
La franja de mercado del minidisc esta en el consumo doméstico selectivo y en sus aplicaciones en
la radio.
Como la compresión de datos en el minidisc es considerable no se utiliza como master para audio
profesional, aunque si será muy empleado por los periodistas, pues ofrecen mayores prestaciones
que las grabadoras convencionales. Permite hacer grabaciones caseras de alta fidelidad,
proporcionando al usuario opciones avanzadas de edición.
En esencia, el MiniDisc funciona como un disquete, de modo que al borrar o mover las pistas, el
espacio disponible para grabación permanece constante, algo imposible de lograr con medios de
acceso secuencial como los casetes. Según Sony, un MiniDisc se puede regrabar hasta un millón de
veces sin deterioro.
MDLP[editar]
En 2002, Sony lanzó una nueva generación de minidisc equipados con una tecnología llamada
MDLP (Minidisc Long Play). Esta permite almacenar en un disco común de 74 minutos hasta 300
minutos de música, gracias a un nuevo método de compresión conocido como ATRAC3, que tiene
tres modos de grabación:
SP, máxima calidad, 292 kbit/s, el estándar con 74 minutos de grabación, stereo.
LP2, calidad alta, en el que se pueden almacenar 150 minutos, 132 kbit/s, stereo.
LP4, calidad media, donde se alcanzan 300 minutos, 66 kbit/s, stereo.
MD 80 Memorex
NetMD[editar]
También en 2002, apareció el NetMD que permite descargar música desde el computador al
minidisc a velocidades de hasta 64X, conectado por medio de un cable USB. Sólo se puede usar
con software patentado, como SonicStage, aunque también existe una versión de libre
distribución llamada libnetmd.
Hi-MD[editar]
Hi-MD Sony.
El último formato de MD que ha visto la luz ha sido Hi-MD. Los reproductores y grabadores de Hi-
MD usan un nuevo códec llamado ATRAC3plus, y tienen la capacidad de almacenar cualquier tipo
de fichero en sus discos. Funcionan con tres tipos de discos:
Discos convencionales: los dispositivos Hi-MD tienen las mismas funcionalidades que NetMD y
MDLP cuando trabajan con estos discos, pero no más
Discos convencionales formateados a Hi-MD: tienen una capacidad de datos brutos (RAW) de 305
MB, a diferencia de los 160 MB que permitían los convencionales
Discos Hi-MD: tienen la misma forma que los anteriores, pero permiten almacenar hasta 1 GB de
datos brutos
Los dos últimos tipos de discos tienen las siguientes características:
El nuevo códec ATRAC3plus, cuyos bitrates pueden ser 352, 256, 64 ó 48 kbit/s, además de un
modo de grabación lineal PCM.
Conectados a un PC, pueden almacenar cualquier tipo de fichero
NetMD no puede leer discos que usen Hi-MD (ni siquiera formateados)
En 2005, Sony anunció un modelo nuevo con capacidad de tomar fotos digitales con una cámara
digital integrada, además de todas las ventajas del Hi-MD.
Un Hi-MD de 1 GB puede almacenar 94 minutos de audio PCM, y 45 horas de 48 kbit/s
ATRAC3plus de música.
Modos de grabación[editar]
Los marcados en verde se pueden realizar desde el reproductor de MD, y los marcados en rojo
desde un PC:
Nombre Bitrate (kbit/s) Códec Capacidad/disponibilidad (min)
Reproductor estándar Reproductor MDLP Reproductor Hi-MD
Discos de 80 minutos Discos de 80 minutos (formateados HiMD) Discos Hi-MD de 1 GB
SP 1CH 292 ATRAC 80 80 80 n/d n/d
SP 2CH 146 ATRAC 160 160 160 n/d n/d
LP2 132 ATRAC3 n/d 160 160 290 990
- 105 ATRAC3 n/d 160 160 370 1250
LP4 66 ATRAC3 n/d 320 320 590 1970
- 48 ATRAC3plus n/d n/d n/d 810 2700
Hi-LP 64 ATRAC3plus n/d n/d n/d 660 2040
Hi-SP 256 ATRAC3plus n/d n/d n/d 160 475
PCM 1411.2 PCM Lineal n/d n/d n/d 28 94
Software[editar]
SonicStage: es el software de Sony que se usa para controlar los dispositivos portátiles MD cuando
son conectados a un PC con sistema operativo Windows. Es muy similar a otros programas como
Windows Media Player o Real Player, utiliza la librería ATRAC OMG/OMA para grabar en el PC, y
dispone de una función para bajarse canciones de Internet. Este programa fue diseñado para
respetar el copyright de la música que Sony vendía, por lo que los reproductores en general no
permiten “arrastrar” canciones directamente al PC, y lo mismo sucede de un reproductor a otro.
Hoy en día esto no es tan estricto, sobre todo desde que el programa soporta el formato MP3. El
programa también permite crear una base de datos estructurada jerárquicamente con las
canciones que el usuario tenga.
Libnetmd: es una implementación de un conjunto de herramientas de libre distribución para
poder utilizar grabadoras NetMD bajo sistemas operativos que soportan POSIX (Linux,
Net/Free/OpenBSD y MacOS X). El proyecto comprende también una aplicación llamada “netmd”
que utiliza dicha librería. Actualmente permite:
Renombrar y mover pistas/grupos/disco.
Imprimir la TOC del disco.
Crear/borrar pistas/grupos.
Reproducir, pausar, avanzar, rebobinar y parar.
http://es.wikipedia.org/wiki/Minidisc
1994: Unidad Zip y Disco Zip.
La unidad Zip o unidad Iomega Zip, en inglés: Zip drive, es un dispositivo o periférico de
almacenamiento, que utiliza discos Zip como soporte de almacenamiento; dichos soportes son de
tipo magneto-óptico, extraíbles o removibles de mediana capacidad, introducido en el mercado
por la empresa Iomega en 1994. La primera versión tenía una capacidad de 100 MB, pero
versiones posteriores lo ampliaron a 250 y 750 MB.
Se convirtió en el más popular candidato a suceder al disquete de 3,5 pulgadas, seguido por el
SuperDisk. Aunque nunca logró conseguirlo, sustituyó a la mayoría de medios extraíbles como los
SyQuest y robó parte del terreno de los discos magneto-ópticos al ser integrado de serie en varias
configuraciones de portátiles y Apple Macintosh.
La caída de precios de grabadoras y consumibles CD-R y CD-RW y, sobre todo de los pendrives y las
tarjetas flash (que sí han logrado sustituir al disquete), acabaron por sacarlo del mercado y del uso
cotidiano.
En un intento de retener parte del mercado que perdía, Iomega comercializó bajo la marca Zip,
una serie de regrabadoras de CD-ROM, conocidas como Zip-650 o Zip-CD.
Descripción[editar]
El disco Zip se basa en el mismo principio que el sistema Iomega Bernoulli Box, de la misma
empresa Iomega; en ambos casos, un mecanismo de cabezales de lectura/escritura está montado
en un actuador lineal que sobrevuela un disco de polímero, similar a un disquete, que gira
rápidamente en el interior de un cartucho de plástico rígido. El actuador lineal utiliza la tecnología
de la bobina móvil, relacionada con los modernos discos duros. El disco Zip tiene un tamaño de 9
centímetros, similar al tamaño de un disquete de 3½", y de menor medida que los discos de
tamaño compacto de las Bernoulli.
Esto dio lugar a un disco que tiene el tamaño de un disquete, pero es capaz de almacenar mucha
más datos, con un rendimiento mucho más rápido que el disquete estándar. Sin embargo no es
competencia directa del disco duro. La unidad Zip 100 tiene una tasa de transferencia de cerca de
1000 kB/s y un tiempo de búsqueda de 28 milisegundos de promedio. En comparación un disquete
estándar de 1440 KiB tiene 500 kbit/s (62,5 kB/s) de ratio y varios cientos de milisegundos de
tiempo de búsqueda. Un disco duro de hoy en día con 7200 RPM tiene un tiempo de búsqueda de
5–9 ms.
La primera generación de discos Zip tuvo que competir con el SuperDisk, que almacena un 20%
más de datos y puede leer/escribir discos estándar de 3,5 pulgadas y 1440 KiB, pero tiene una
menor velocidad de transferencia debido a una menor velocidad de rotación. La rivalidad duró
hasta la llegada de la era USB.
Interfaces[editar]
Las unidades Zip vienen en una amplia variedad e interfaces. Las unidades internas tienen interfaz
IDE o SCSI. Las unidades externas viene con puerto paralelo y SCSI inicialmente, y unos años
después USB. Durante algún tiempo, hubo una unidad llamada Zip Plus que podía detectar si se
conectaba a un puerto de impresora o a uno SCSI, pero se detectaron gran cantidad de
incompatibilidades y fue descatalogado. Incluía además software adicional y una fuente de
alimentación externa más pequeña que la inicial. Con el tiempo las unidades Zip USB se
alimentaron por el propio conector USB.
Capacidad[editar]
La versión inicial del disco Zip tenía capacidad de 100 MB, y rápidamente se transformó en un
suceso. Se hicieron planes para comercializar un disco de 25 MB con un precio más reducido, con
el objetivo de acercarse lo más posible al coste de un disquete estándar, pero el disco jamás se
comercializó. Con el tiempo Iomega comercializó unidades y discos aumentando la capacidad a
250 MB primero, y después 750 MB, a la vez que aceleraba la velocidad de acceso a disco,
mejorando también la transferencia de datos y tiempo de búsqueda.
En el lado negativo, el acceso a un soporte menor ralentiza la unidad, incluso la hace más lenta
que la unidad de 100 MB original. La unidad de 750 MB sólo puede leer, pero no escribir, en los
discos de 100 MB.
Soporte[editar]
Los discos Zip tiene todos un tamaño de 99 mm de ancho, 100 mm de alto y 7 mm de grosor en la
zona del cierre. A los lados el grosor es menor. El tamaño extra respecto de los 90 mm del
disquete de 3,5 provee del espacio para que la fuerza centrífuga sostenga el disco que rota lejos
de su carcasa protectora a altas velocidades, eliminando el calor de la fricción que limitan las
revoluciones por minuto (y con ello las velocidades de transferencia) de generaciones anteriores
de soportes magnéticos. Este acercamiento sin contacto también aumenta la vida teórica de los
consumibles.
En la parte inferior de un disco Zip incluye un retroreflector en la esquina superior izquierda
(viendo el disco por la cara inferior). El mecanismo de arrastre no se enganchará si no se detecta el
punto reflector. Esto era una medida para reducir soportes falsificados de bajo coste que socavan
los beneficios de Iomega (pues los rellenos reflexivos se venden bajo licencia). En los discos de 250
MB y 750 MB, el punto ha sido reducido o eliminado (aunque el troquel permanece en la carcasa)
como medida de seguridad para evitar su uso accidental en unidades de 100 MB. Si un disco se
introduce en una unidad de menor capacidad es expulsado de inmediato. Algunos fabricantes de
consumibles usan una chapa cóncava para conseguir el mismo efecto.
La caja de los discos Zip es mayoritariamente transparente, muy similar a la de los discos magneto-
ópticos y de los discos de MiniDisc. Se venden en paquetes individuales y cajas de 5 y 10 unidades.
Los consumibles baratos se venden en caja de cartón e incluso en envoltorio de celofán.
Compatibilidad[editar]
Los discos Zip de capacidad más alta deben ser usados en un drive con, por lo menos, la misma
capacidad. Generalmente, drives de capacidad más alta también controlan todas los disquetes de
menor capacidad, ahora, drives de 250 MB que son mucho más lentos que los de 100 MB para
escribir datos en un disco de 100 MB. Por eso, el drive de 750 MB no puede escribir en los
disquetes de 100 MB que son más baratos y más comunes.
Ventas, problemas y licencias[editar]
Después de su introducción en 1994, los discos Zip se vendieron inicialmente bien debido a su
coste relativamente bajo y, para entonces, alta capacidad. La unidad se vendía por debajo de 200
USD con un disco incluido (en formato dual PC/Mac, con las utilidades grabadas en el propio
disco), y cada disco adicional de 100 MB a $20. Por entonces, los discos duros tenían una
capacidad típica de 500 MB y un precio de unos $200 USD, por lo que las unidades Zip eran una
excelente alternativa como sistema de backup y para extender la capacidad de los equipos, sobre
todo para el usuario doméstico. El precio de los discos adicionales disminuyó cada año y nuevas
compañías se incorporaron como fabricantes licenciadas, tales como Fujifilm, Verbatim, y Maxell.
Epson también fabricó una unidad Zip propia licenciada bajo su propia marca (diferenciable por su
color blanco en las unidades externas).
Ventas de discos y unidades Zip de 1998 a 2003.
Las ventas de discos y unidades Zip declinan desde 1999 a 2003.1 En septiembre de 1998, una
Acción popular se ejerce contra Iomega por el fallo de los discos Zip conocido como el click of
death. Los discos Zip también tienen un coste mayor por megabyte que los CD-R y DVD±RW.
El aumento de la capacidad de los discos duros hasta varios GB dio lugar a que la utilización de los
Zip como backup no resultase ni práctico ni económico. Por otra parte, el abaratamiento de los
CD-R y la llegada del DVD para el ordenador personal, así como la aparición de los primeros
pendrives USB, sacaronn al Zip del mercado. Sin embargo, las ventajas de los soportes magnéticos
sobre los ópticos y las memorias Flash, en términos de estabilidad a largo plazo del almacenaje de
archivos y altos ciclos de grabación/borrado, le dejan un nicho de mercado en el almacenaje de
datos. En tales usos, el disco Zip compite sobre todo con los discos duros USB y la unidad Hi-MD
del MiniDisc de Sony.
En 2006, PC World calificó al disco Zip como el 15º peor producto tecnológico de todos los
tiempos.2 Sin embargo, en 2007, PC World lo califica como el 23º mejor producto tecnológico de
todos los tiempos.3
La unidad Iomega ZipCD 650[editar]
Iomega también produjo una línea de unidades internas y externas de regrabadoras de CD bajo la
marca Zip, llamadas ZipCD 650. Utiliza consumibles estándares y no tiene más relación con las
unidades Zip que la semejanza de la caja externa (la interna es siempre blanca), y que usan una
interfaz USB 1.1.
Etiquetas para disco Zip[editar]
Cada unidad Zip suele venir con una serie de etiquetas adhesivas para rotular los discos con su
contenido. Son en color amarillo con la I de Iomega y una serie de frases preconcebidas como
"Confidencial" o "Soy la etiqueta de las grandes ideas".
http://es.wikipedia.org/wiki/Unidad_Zip
1995: Lectograbadora de DVD.
El DVD es un disco óptico de almacenamiento de datos cuyo estándar surgió en 1995. Sus siglas
corresponden con Digital Versatile Disc2 en inglés (Disco Versátil Digital traducido al español), de
modo que ambos acrónimos (en español e inglés) coinciden. En sus inicios, la V intermedia hacía
referencia a video (digital videodisk), debido a su desarrollo como reemplazo del formato VHS
para la distribución de vídeo a los hogares.3
Unidad de DVD: el nombre de este dispositivo hace referencia a la multitud de maneras en las que
se almacenan los datos: DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (solo
pueden escribirse una vez), DVD-RW y DVD+RW (permiten grabar y luego borrar). También
difieren en la capacidad de almacenamiento de cada uno de los tipos.
Historia[editar]
A comienzo de los años 1990, dos estándares de almacenamiento óptico de alta densidad estaban
desarrollándose: uno era el multimedia compact disc (MMCD), apoyado por Philips y Sony; el otro
era el super density (SD), apoyado por Toshiba, Time Warner, Panasonic, Hitachi, Mitsubishi
Electric, Pioneer, Thomson y JVC.
Philips y Sony se unieron y su formato MMCD y acordaron con Toshiba adoptar el SD, pero con
una modificación: la adopción del EFM Plus de Philips, creado por Kees Immink, que a pesar de ser
un 6% menos eficiente que el sistema de codificación de Toshiba (de ahí que la capacidad sea de
4,7 GB en lugar del los 5 GB del SD original), cuenta con la gran ventaja de que EFM Plus posee
gran resistencia a los daños físicos en el disco, como arañazos o huellas. El resultado fue la
creación del Consorcio del DVD, fundado por las compañías anteriores, y la especificación de la
versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el
consorcio DVD (DVD Consortium) fue reemplazado por el foro DVD (DVD Forum) con los siguientes
miembros:
Hitachi, Ltd.
Panasonic Corp
Mitsubishi Electric Corporation
Pioneer Electronic Corporation
Royal Philips Electronics N.V.
Sony Corporation
Thomson
Time Warner Inc.
Toshiba Corporation
Victor Company of Japan, Ltd. (JVC)
El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM, y Alliance creó los estándares
DVD+R/RW para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman
parte de los estándares oficiales, no muestran el logotipo «DVD». En lugar de ello, llevan el
logotipo «RW» incluso aunque sean discos que solo puedan grabarse una vez, lo que ha suscitado
cierta polémica en algunos sectores que lo consideran publicidad engañosa, además de confundir
a los usuarios.
Información técnica[editar]
Los DVD se dividen en dos categorías: los de capa simple y los de doble capa. Además el disco
puede tener una o dos caras, y una o dos capas de datos por cada cara; el número de caras y capas
determina la capacidad del disco. Los formatos de dos caras apenas se utilizan fuera del ámbito de
DVD-Video.
Los DVD de capa simple pueden guardar hasta 4,7 gigabytes según los fabricantes en base decimal,
y aproximadamente 4,38 gigabytes en base binaria o gibibytes (se lo conoce como DVD-5),
alrededor de siete veces más que un CD estándar. Emplea un láser de lectura con una longitud de
onda de 650 nm (en el caso de los CD, es de 780 nm) y una apertura numérica de 0,6 (frente a los
0,45 del CD), la resolución de lectura se incrementa en un factor de 1,65. Esto es aplicable en dos
dimensiones, así que la densidad de datos física real se incrementa en un factor de 3,3.
El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y
corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la
codificación Reed Solomon - Product Code (RS-PC), así como la codificación de línea Eight-to-
Fourteen Modulation, la cual fue reemplazada por una versión más eficiente, EFM Plus, con las
mismas características que el EFM clásico. El subcódigo de CD fue eliminado. Como resultado, el
formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de corrección de
errores.
A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera
fundamentalmente distinta que los datos, un DVD correctamente creado siempre contendrá datos
siguiendo los sistemas de archivos UDF e ISO 9660.
Tipos de DVD[editar]
Los DVD se pueden clasificar:
Según su contenido:
DVD-Video: películas (vídeo y audio).
DVD-Audio: audio de alta fidelidad. Por ejemplo: 24 bits por muestra, una velocidad de muestreo
de 48 000 Hz y un rango dinámico de 144 dB.[cita requerida]
DVD-Data: todo tipo de datos.
Según su capacidad de regrabado (La mayoría de las grabadoras de DVD nuevas pueden grabar en
ambos formatos y llevan ambos logotipos, «+RW» y «DVD-R/RW»):
DVD-ROM: solo lectura, manufacturado con prensa.
DVD-R y DVD+R: grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de
grabación y de codificación de la información. En los +R los agujeros son 1 lógicos mientras que en
los –R los agujeros son 0 lógicos.
DVD-RW y DVD+RW: regrabable.
DVD-RAM: regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los
datos siempre activa tras completar la escritura.
DVD+R DL: grabable una sola vez de doble capa.
El DVD-ROM almacena desde 4,7 GB hasta 17 GB.
Según su número de capas o caras:
DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB. Discos DVD±R/RW.
DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB. Discos DVD+R DL. La grabación de doble capa
permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8,5 GB
por disco, comparado con los 4,7 GB que permiten los discos de una capa. Los DVD-R DL (dual
layer) fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado
para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media. Un disco de doble capa difiere de un
DVD convencional en que emplea una segunda capa física ubicada en el interior del disco. Una
unidad lectora con capacidad de doble capa accede a la segunda capa proyectando el láser a
través de la primera capa semitransparente. El mecanismo de cambio de capa en algunos DVD
puede conllevar una pausa de hasta un par de segundos. Los discos grabables soportan esta
tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM.
Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con
las unidades de una capa, aunque el medio continúa siendo considerablemente más caro.
DVD-10: dos caras, capa simple en ambas; 9,4 GB o 8,75 GiB. Discos DVD±R/RW.
DVD-14: dos caras, capa doble en una, capa simple en la otra; 13,3 GB o 12,3 GiB. Raramente
utilizado.
DVD-18: dos caras, capa doble en ambas; 17,1 GB o 15,9 GiB. Discos DVD+R.
También existen DVD de 8 cm que son llamados miniDVD (no confundir con cDVD, que son CD que
contienen información de tipo DVD video) que tienen una capacidad de 1,5 GB.
Velocidad[editar]
Evolución del precio del DVD.
Coste por MB en DVD.
Coste de los dispositivos de lectura y escritura en DVD.
La velocidad de transferencia de datos de una unidad DVD está dada en múltiplos de 1350 KB/s.
Las primeras unidades lectoras CD y DVD leían datos a velocidad constante (velocidad lineal
constante o CLV). Los datos en el disco pasaban bajo el láser de lectura a velocidad constante.
Como la velocidad lineal (metros/segundo) de la pista es tanto mayor cuanto más alejados esté del
centro del disco (de manera proporcional al radio), la velocidad rotacional del disco se ajustaba de
acuerdo a qué porción del disco se estaba leyendo. Actualmente, la mayor parte de unidades de
CD y DVD tienen una velocidad de rotación constante (velocidad angular constante o CAV). La
máxima velocidad de transferencia de datos especificada para una cierta unidad y disco se alcanza
solamente en los extremos del disco. Por tanto, la velocidad media de la unidad lectora equivale al
50-70% de la velocidad máxima para la unidad y el disco. Aunque esto puede parecer una
desventaja, tales unidades tienen un menor tiempo de búsqueda, pues nunca deben cambiar la
velocidad de rotación del disco.
Velocidad Mbit/s MB/s MiB/s
1x 10,80 1,35 1,29
2x 21,60 2,70 2,57
2,4x 25,92 3,24 3,09
2,6x 28,08 3,51 3,35
4x 43'20 5,40 5,15
6x 64,80 8,10 7,72
8x 86,40 10,80 10,30
10x 108,00 13,50 12,87
12x 129'60 16'20 15,45
16x 172'80 21'60 20,60
18x 194,40 24,30 23,17
20x 216,00 27,00 25,75
22x 237,60 29,70 28,32
24x 259,20 32,40 30,90
Sistema de archivos[editar]
Los DVD siguen el sistema de archivos UDF (universal disk format o formato de disco universal) y
Joliet. Se adoptó este sistema de archivos para reemplazar al estándar ISO 9660, y su principal uso
es la grabación o regrabación de discos. Fue desarrollado por OSTA (Optical Storage Technology
Association, Asociación de la Tecnología de Almacenamiento Óptico).
http://es.wikipedia.org/wiki/DVD
1996: Seagate Barracuda.
Seagate Barracuda
Barracuda es la marca registrada de un disco duro desarrollado por Seagate. El mismo fue
desarrollado para uso en Desktop y Servidores, con sus particulares características.
Desktop[editar]
En lo que respecta a Desktop, la capacidad va desde 80 GB a 3 TB, usando tecnología de grabación
perpendicular. Está disponible con interfaz ATA o SATA, con un rango de caché de 2 MiB a 32 MiB.
Utiliza la tecnología para mejor aprovechamiento de la energía (Eco-friendly), y viene con 5 años
de garantía. El último modelo lanzado al mercado es el Barracuda 7200.14.
Servidores[editar]
Los modelos disponibles son el Barracuda ES y el ES.2, su capacidad va desde los 250 GB a 1.5 TB,
usa tecnología de grabación perpendicular. Está disponible con interfaces SATA y SAS solamente
para el Barracuda ES.2, de bajo consumo de energía. En el caso del ES.2 utiliza la tecnología
PowerTrim, logrando menor consumo de energía sin perder desempeño. Viene con 5 años de
garantía. Son recomendables para uso en NAS, SAN o RAID.
http://es.wikipedia.org/wiki/Seagate_Barracuda
http://www.seagate.com/www/en-us/products/desktops/barracuda_hard_drives/
http://www.seagate.com/www/en-us/products/servers/barracuda_es/
1999: IBM 170 Microdrive.
Microdrive es un medio de almacenamiento de datos basado en la tecnología de disco duro de 1"
(42,8 x 36,4 x 5,0 mm, 16g) desarrollado por IBM e Hitachi (Hitachi Global Storage Technologies).
El Microdrive es en realidad un disco duro de una pulgada que suele ser empaquetado y habilitado
con interfaces CompactFlash o IDE/ATA según el uso al que se desee destinar la unidad.
Normalmente, es usado en las tarjetas CompactFlash de tipo 2. La única diferencia entre éstas y
las de tipo 1, es que son ligeramente más gruesas (5 mm) mientras las de tipo 1 con de tan solo 3,5
mm
Inicialmente, IBM fue la única compañía en fabricar este tipo de dispositivos, pero actualmente
también existe el Sony Microdrive y algunos modelos por parte de Seagate.
Los dispositivos microdrive al principio tenían una capacidad de almacenamiento muy superior a la
de la mayoría de dispositivos basados en la tecnología flash (unos 8 GB), lo que comporta que
también tengan que ser formateados en algún sistema de archivos que soporte estos tamaños.
Por el contrario, también tenemos que estos sistemas son más sensibles a las vibraciones que
cualquier dispositivo flash, puesto que disponen de un gran número de componentes mecánicos y
tienen un mayor consumo, lo que hace que no funcionen en algunos dispositivos de bajo consumo
que no proporcionan la energía suficiente. Por último, también cabe decir que sus tiempos de
acceso (seek time) son peores.
Principalmente, estos dispositivos son usados en la fotografía profesional, ya que permiten el
almacenamiento de un gran número de fotografías de alta definición y calidad.
http://es.wikipedia.org/wiki/Microdrive
http://www.hitachigst.com/portal/site/en/menuitem.92382478a130ca1492480021aac4f0a0
2000: IBM DiskOnKey.
IBM DiskOnKey
En el 2000, IBM revolucionó la forma en la que movemos y almacenamos datos con este
pequeño y de bajo costo dispositivo. Cuando fue introducido en el mercado, acabó
rápidamente con los disquetes y los Zip, comenzando así el movimiento hacia el
almacenamiento flash. Este fue el primer pendrive, y su capacidad era de 8 MB, costando 49$.
Ahora los encontramos de 16GB por poco más de 10 euros.
http://www.pezeta.net/retrospectiva/la-historia-del-almacenamiento-digital
http://content.time.com/time/specials/packages/article/0,28804,2023689_2023703_2023613,00.
html
2000: Tarjeta de memoria Secure Digital (SD).
Una tarjeta de memoria o tarjeta de memoria flash es un dispositivo de almacenamiento que
conserva la información que le ha sido almacenada de forma correcta aun con la pérdida de
energía; es decir, es una memoria no volátil.
Generalidades[editar]
Una tarjeta de memoria es un chip de memoria que mantiene su contenido
El término Memoria Flash fue acuñado por Toshiba, por su capacidad para borrarse “en un
flash” (instante). Derivados de EEPROM, se borran en bloques fijos, en lugar de bytes solos.
Los tamaños de los bloques por lo general van de 512 bytes hasta 256 KB. Los chips flash son
menos costosos y proporcionan mayores densidades de bits. Además, el flash se está
convirtiendo en una alternativa para los EPROM porque pueden actualizarse fácilmente.
La PC Card (PCMCIA) se encontraba entre los primeros formatos comerciales de tarjetas de
memoria (tarjetas de tipo I) que salen en la década de 1990, pero ahora se utiliza
principalmente en aplicaciones industriales y para conectar dispositivos de entrada-salida tales
como un módem. También en los años 1990, una serie de formatos de tarjetas de memoria
más pequeña que la PC Card salieron, incluyendo CompactFlash, SmartMedia, Secure
Digital, MiniSD, MicroSD y similares. El deseo de pequeñas tarjetas en teléfonos móviles,
PDAs y cámaras digitales compactas produjo una tendencia que dejó la anterior generación
de tarjetas demasiado grandes. En las cámaras digitales SmartMedia y CompactFlash habían
tenido mucho éxito; en 2001 SM había capturado el 50% del mercado de cámaras digitales y
CF tenía un dominio absoluto sobre las cámaras digitales profesionales. En 2005, sin
embargo, Secure Digital/Multi Media Card habían ocupado el puesto de SmartMedia, aunque
no al mismo nivel y con una fuerte competencia procedente de las variantes de Memory
Stick, xD-Picture Card, y CompactFlash. En el campo industrial, incluso las venerables tarjetas
de memoria PC card (PCMCIA) todavía mantienen un nicho de mercado, mientras que en los
teléfonos móviles y PDA, el mercado de la tarjeta de memoria estaba muy fragmentado hasta
el año 2010 cuando microSD pasa a dominar el mercado de teléfonos inteligentes y tabletas.
Desde 2010 los nuevos productos de Sony (antes sólo usaba Memory Stick) y Olympus (antes
sólo usaba XD-Card) se ofrecen con una ranura adicional Secure Digital.1 En efecto, la guerra
de formatos se ha decidido en favor de SD.2 3 4
Tabla de datos de los formatos de tarjeta de memorias seleccionadas[editar]
Nombre Sigla Dimensiones Sistema DRM
PC Card PCMCIA 85.6 × 54 × 3.3 mm ninguno
CompactFlash I CF-I 43 × 36 × 3.3 mm ninguno
CompactFlash II CF-II 43 × 36 × 5.5 mm ninguno
SmartMedia SM / SMC 45 × 37 × 0.76 mm ninguno
Memory Stick MS 50.0 × 21.5 × 2.8 mm MagicGate
Memory Stick Duo MSD 31.0 × 20.0 × 1.6 mm MagicGate
Memory Stick PRO Duo MSPD 31.0 × 20.0 × 1.6 mm MagicGate
Memory Stick PRO-HG Duo MSPDX 31.0 × 20.0 × 1.6 mm MagicGate
Memory Stick Micro M2 M2 15.0 × 12.5 × 1.2 mm MagicGate
Miniature Card 37 x 45 x 3.5 mm ninguno
MultiMediaCard MMC 32 × 24 × 1.5 mm ninguno
Reduced Size Multimedia Card RS-MMC 16 × 24 × 1.5 mm ninguno
MMCmicro Card MMCmicro 12 × 14 × 1.1 mm ninguno
Secure Digital card SD 32 × 24 × 2.1 mm CPRM
miniSD miniSD 21.5 × 20 × 1.4 mm CPRM
microSD microSD 15 × 11 × 0.7 mm CPRM
SxS SxS
Universal Flash Storage UFS
Picture Card xD 20 × 25 × 1.7 mm EEPROM.
Intelligent Stick iStick 24 x 18 x 2.8 mm ninguno
Serial Flash Module SFM 45 x 15 mm ninguno
µ card µcard 32 x 24 x 1 mm desconocido
NT Card NT NT+ 44 x 24 x 2.5 mm ninguno
XQD card XQD 38.5 × 29.8 × 3.8 mm desconocido
Secure Digital (SD)
MiniSD
CompactFlash (CF-I)
Memory Stick
MultiMediaCard (MMC)
SmartMedia
Revisión de los distintos tipos tarjetas de memoria[editar] Puesto que muchos dispositivos de EEPROM permiten solamente un número finito de ciclos
de escritura y borrado, algunas de estas tarjetas incorporan algoritmos para superar el
desgaste y para evitarlo de usar fuera los lugares específicos a los cuales se escriben a
menudo.
PCMCIA ATA Type I Flash Memory Card (PC Card ATA Type I)
Tarjetas PCMCIA Type II, Type III
CompactFlash (Type I), CompactFlash High-Speed
CompactFlash Type II, CF+(CF2.0), CF3.0
Microdrive
MiniCard (Miniature Card) (max 64 MB (64 MiB))
SmartMedia Card (SSFDC) (max 128 MB) (3.3 V,5 V)
XD-Picture Card, xD-Picture Card Type M
Memory Stick, MagicGate Memory Stick (max 128 MB); Memory Stick Select, MagicGate
Memory Stick Select ("Select" significa: 2x128 MB con un interruptor A/B)
SecureMMC
Secure Digital (SD Card), Secure Digital High-Speed, Secure Digital Plus/Xtra/etc (SD con
conector USB))
miniSD
microSD
SDHC
MU-Flash (Mu-Card) (Mu-Card Alliance de OMIA)
C-Flash
Tarjeta SIM
Tarjeta inteligente (ISO/IEC 7810, ISO/IEC 7816 estándares de tarjetas, etc.)
UFC (USB FlashCard) (usa USB)
FISH Universal Transportable Memory Card Standard (utiliza USB)
Intelligent Stick (iStick, una tarjeta basada en USB de memoria flash con MMS)
Tarjeta de memoria SxS (S-by-S), una nueva especificación de la tarjeta de memoria
desarrollada por Sandisk y Sony. SxS cumple con el estándar de la
industriaExpressCard. [1]
Tarjetas de memoria en las consolas de videojuegos[editar] Muchas consolas de videojuegos han utilizado tarjetas de memoria de estado sólido con
formatos propietarios, especialmente desde que los juegos comenzaron a ser distribuidos
en discos ópticos de sólo lectura (Compact Disc). Los tamaños entre paréntesis son los de las
tarjetas oficiales.
Microsoft Xbox:
Xbox: tarjeta de memoria Memory Unit de 8MB.
Xbox 360: Memory Unit en versiones de 64 MB, 256MB ,512 MB y versiones
superiores hasta 16GB.
Nintendo:
Nintendo 3DS: Compatible con tarjetas SD y SDHC
Nintendo 64: Controller Pak (256 KB divididos en 123 páginas).
Nintendo GameCube: Memory Card, en versiones 59 bloques (4 Mib/512 KiB), 251
bloques (16 Mib/2 MiB) y 1019 bloques (64 Mib/8 MiB)). Esta memoria es
simplemente una tarjeta SD modificada.
Nintendo DS: tipo propietario de tarjeta de memoria flash (4MB a 4GB).
Wii: compatible con Nintendo GameCube Memory Card y con Secure Digital (SD)
Sega:
Sega Dreamcast: Visual Memory Unit (VMU) (128 KB divididos en 200 bloques).
Sega Saturn: su unidad de memoria puede guardar 20 partidas de juegos.
Sony:
PlayStation: Memory Card (1 Mb/128 KB dividido en 15 bloques).
El PocketStation puede actuar como PlayStation Memory Card.
PlayStation 2: tarjeta de memoria llamada Memory Card (8MB)(For PlayStation
2).También disponibles en versiones superiores de hasta 64MB.
PlayStation Portable (PSP): utiliza Memory Stick Duo.
PlayStation 3: es compatible con CompactFlash, Secure Digital, y Memory Stick PRO.
PlayStation Vita: Usa su propio tipo de tarjeta la PS Vita Memory Card, basado en
MemoryStick Micro
La consola portátil GP2X basada en GNU/Linux usa SD/MMC.
GP32 : usa tarjetas SmartMedia, hasta 128 MB.
http://es.wikipedia.org/wiki/Tarjeta_de_memoria
http://www.fdlog.com/fotografia-digital/tarjetas-de-memoria-diferentes-tipos-y-marcas/
2008: Unidad de Estado Sólido
Una unidad de estado sólido o SSD (acrónimo en inglés de solid-state drive) es un dispositivo de
almacenamiento de datos que usa una memoria no volátil, como la memoria flash, para almacenar
datos, en lugar de los platos giratorios magnéticos encontrados en los discos duros
convencionales. En comparación con los discos duros tradicionales, las unidades de estado sólido
son menos sensibles a los golpes, son prácticamente inaudibles y tienen un menor tiempo de
acceso y de latencia. Las SSD hacen uso de la misma interfaz que los discos duros por lo que son
fácilmente intercambiables sin tener que recurrir a adaptadores o tarjetas de expansión para
compatibilizarlos con el equipo.
A partir del 2010, la mayoría de los SSD utilizan memoria flash basada en puertas NAND, que
retiene los datos sin alimentación. Para aplicaciones que requieren acceso rápido, pero no
necesariamente la persistencia de datos después de la pérdida de potencia, los SSD pueden ser
construidos a partir de memoria de acceso aleatorio (RAM). Estos dispositivos pueden emplear
fuentes de alimentación independientes, tales como baterías, para mantener los datos después de
la desconexión de la corriente eléctrica.1
Se han desarrollado dispositivos que combinan ambas tecnologías, es decir, discos duros y
memorias flash, y se denominan discos duros híbridos (HHD), que intentan aunar capacidad y
velocidad a un precio inferior a un SSD.
Definición[editar]
Una memoria de estado sólido es un dispositivo de almacenamiento secundario hecho con
componentes electrónicos en estado sólido pensado para utilizarse en equipos informáticos en
sustitución de una unidad de disco duro convencional, como memoria auxiliar o para crear
unidades híbridas compuestas por SSD y disco duro.
Consta de una memoria no volátil, en vez de los platos giratorios y cabezal de las unidades de
disco duro convencionales. Al no tener piezas móviles, una unidad de estado sólido reduce
drásticamente el tiempo de búsqueda, latencia y otros, diferenciándose así de los discos duros
magnéticos.
Al ser inmune a las vibraciones externas, es especialmente apto para vehículos, ordenadores
portátiles, etc.
Historia[editar]
SSD basados en RAM[editar]
Habría que remontarse a la década de 1950 cuando se utilizaban dos tecnologías denominadas
memoria de núcleo magnético y CCROS. Estas memorias auxiliares surgieron durante la época en
la que se hacía uso del tubo de vacío, pero con la introducción en el mercado de las memorias de
tambor, más asequibles, no se continuaron desarrollando. Durante los años 70 y 80, se aplicaron
en memorias fabricadas con semiconductores. Sin embargo, su precio era tan prohibitivo que
tuvieron muy poca aceptación, incluso en el mercado de los superordenadores.
En 1978, Texas memory presentó una unidad de estado sólido de 16 KiB basada en RAM para los
equipos de las petroleras. Al año siguiente, StorageTek desarrolló el primer tipo de unidad de
estado sólido moderna. En 1983, se presentó el Sharp PC-5000, haciendo gala de 128 cartuchos de
almacenamiento en estado sólido basado en memoria de burbuja. En septiembre de 1986, Santa
Clara Systems presentó el BATRAM, que constaba de 4 MiB ampliables a 20 MiB usando módulos
de memoria; dicha unidad contenía una pila recargable para conservar los datos cuando no estaba
en funcionamiento.
SSD basados en flash[editar]
En 1995, M-Systems presentó unidades de estado sólido basadas en flash. Desde entonces, los SSD
se han utilizado exitosamente como alternativa a los discos duros en la industria militar y
aeroespacial, así como en otros menesteres análogos. Estas aplicaciones dependen de una alta
tasa de tiempo medio entre fallos (MTBF), gran capacidad para soportar golpes fuertes, cambios
bruscos de temperatura, presión y turbulencias.
BiTMICRO, en 1999, hizo gala de una serie de presentaciones y anuncios de unidades de estado
sólido basadas en flash de 18 GiB en formato de 3,5 pulgadas. Fusion-io, en 2007, anunció
unidades de estado sólido con interfaz PCI-Express capaces de realizar 100.000 operaciones de
Entrada/Salida en formato de tarjeta de expansión con capacidades de hasta 320 GB. En el CeBIT
2009, OCZ presentó un SSD basado en flash de 1 TiB con interfaz PCI Express x8 capaz de alcanzar
una velocidad máxima de escritura de 654 MB/s y una velocidad máxima de lectura a 712 MB/s.
En diciembre de 2009, Micron Technology anunció el primer SSD del mundo, utilizando la interfaz
SATA III.2
Enterprise flash drive[editar]
Los enterprise flash drives (EFD) están diseñados para aplicaciones que requieren una alta tasa de
operaciones por segundo, fiabilidad y eficiencia energética. En la mayoría de los casos, un EFD es
un SSD con un conjunto de especificaciones superiores. El término fue acuñado por EMC en enero
de 2008, para ayudarles a identificar a los fabricantes SSD que irían orientados a mercados de más
alta gama. No existen organismos de normalización que acuñen la definición de EFD, por lo que
cualquier fabricante puede denominar EFD a unidades SSD sin que existan unos requisitos
mínimos. Del mismo modo que puede haber fabricantes de SSD que fabriquen unidades que
cumplan los requisitos EFD y que jamás sean denominados así.
RaceTrack[editar]
IBM está investigando y diseñando un dispositivo, aún en fase experimental, denominado
Racetrack. Al igual que los SSD, son memorias no volátiles basadas en nanohilos compuestos por
níquel, hierro y vórtices que separan entre sí los datos almacenados, lo que permite velocidades
hasta cien mil veces superiores a los discos duros tradicionales, según apunta la propia IBM.3
Arquitectura, diseño y funcionamiento[editar]
Chasis abierto de un disco duro tradicional. (izquierda). Aspecto de un dispositivo SSD indicado
especialmente para ordenadores portátiles (derecha).
Se distinguen dos periodos: al principio, se construían con una memoria volátil DRAM y, más
adelante, se empezaron a fabricar con una memoria no volátil NAND flash.
Basados en NAND Flash[editar]
Casi la totalidad de los fabricantes comercializan sus SSD con memorias no móviles NAND flash
para desarrollar un dispositivo no sólo veloz y con una vasta capacidad, sino robusto y a la vez lo
más pequeño posible tanto para el mercado de consumo como el profesional. Al ser memorias no
volátiles, no requieren ningún tipo de alimentación constante ni pilas para no perder los datos
almacenados, incluso en apagones repentinos, aunque cabe destacar que los SSD NAND Flash son
más lentos que los que se basan en DRAM. Son comercializadas con las dimensiones heredadas de
los discos duros, es decir, en 3,5 pulgadas, 2,5 pulgadas y 1,8 pulgadas, aunque también ciertas
SSD vienen en formato tarjeta de expansión.
En algunos casos, las SSD pueden ser más lentas que los discos duros, en especial con
controladoras antiguas de gamas bajas, pero dado que los tiempos de acceso de una SSD son
inapreciables, al final resultan más rápidos. Este tiempo de acceso tan corto se debe a la ausencia
de piezas mecánicas móviles, inherentes a los discos duros.
Una SSD se compone principalmente:
Controladora: Es un procesador electrónico que se encarga de administrar, gestionar y unir los
módulos de memoria NAND con los conectores en entrada y salida. Ejecuta software a nivel de
Firmware y es con toda seguridad, el factor más determinante para las velocidades del dispositivo.
Caché: Un dispositivo SSD utiliza un pequeño dispositivo de memoria DRAM similar al caché de los
discos duros. El directorio de la colocación de bloques y el desgaste de nivelación de datos
también se mantiene en la memoria caché mientras la unidad está operativa.
Condensador: Es necesario para mantener la integridad de los datos de la memoria caché, si la
alimentación eléctrica se ha detenido inesperadamente, el tiempo suficiente para que se puedan
enviar los datos retenidos hacia la memoria no volátil.
El rendimiento de los SSD se incrementan añadiendo chips NAND Flash en paralelo. Un sólo chip
NAND Flash es relativamente lento, dado que la interfaz de entrada y salida es de 8 ó 16 bits
asíncrona y también por la latencia adicional de las operaciones básicas de E/S (Típica de los SLC
NAND - aproximadamente 25 μs para buscar una página de 4 KiB de la matriz en el búfer de E/S en
una lectura, aproximadamente 250 μs para una página de 4 KiB de la memoria intermedia de E/S a
la matriz de la escritura y sobre 2 ms para borrar un bloque de 256 KiB). Cuando varios dispositivos
NAND operan en paralelo dentro de un SSD, las escalas de ancho de banda se incrementan y las
latencias de alta se minimizan, siempre y cuando suficientes operaciones estén pendientes y la
carga se distribuya uniformemente entre los dispositivos.
Los SSD de Micron e Intel fabricaron unidades flash mediante la aplicación de los datos de creación
de bandas (similar a RAID 0) e intercalado. Esto permitió la creación de SSD ultrarápidos con 250
MB/s de lectura y escritura.
Las controladoras Sandforce SF 1000 Series consiguen tasas de transferencia cercanas a la
saturación de la interfaz SATA II (rozando los 300 MB/s simétricos tanto en lectura como en
escritura). La generación sucesora, las Sandforce SF 2000 Series, permiten más allá de los 500
MB/s simétricos de lectura y escritura secuencial, requiriendo de una interfaz SATA III si se desea
alcanzar estos registros.
Basados en DRAM[editar]
Los SSD basados en este tipo de almacenamiento proporcionan una rauda velocidad de acceso a
datos, en torno a 10 μs y se utilizan principalmente para acelerar aplicaciones que de otra manera
serían mermadas por la latencia del resto de sistemas. Estos SSD incorporan una batería o bien un
adaptador de corriente continua, además de un sistema de copia de seguridad de
almacenamiento para desconexiones abruptas que al restablecerse vuelve a volcarse a la memoria
no volátil, algo similar al sistema de hibernación de los sistemas operativos.
Estos SSD son generalmente equipados con las mismas DIMMs de RAM que cualquier ordenador
corriente, permitiendo su sustitución o expansión.
Sin embargo, las mejoras de las memorias basadas en flash están haciendo los SSD basados en
DRAM no tan efectivos y acortando la brecha que los separa en términos de rendimiento. Además
los sistemas basados en DRAM son tremendamente más caros.
Otras aplicaciones[editar]
Las unidades de estado sólido son especialmente útiles en un ordenador que ya llegó al máximo
de memoria RAM. Por ejemplo, algunas arquitecturas x86 tienen 4 GiB de límite, pero éste puede
ser extendido colocando un SSD como archivo de intercambio (swap). Estos SSD no proporcionan
tanta rapidez de almacenamiento como la memoria RAM principal debido al cuello de botella del
bus que los conecta y a que la distancia de un dispositivo a otro es mucho mayor, pero aun así
mejoraría el rendimiento con respecto a colocar el archivo de intercambio en una unidad de disco
duro tradicional.
Tecnologías[editar]
PCI-E,DRAM,y SSD basado en NAND.
Los SSD basados en NAND almacenan la información no volátil en celdas mediante puertas lógicas
"Y Negadas". Actualmente las celdas son fabricadas mediante tres tecnologías distintas:
Comparación entre Chips MLC y SLC.
Celda de nivel individual (SLC)[editar]
Este proceso consiste en cortar las obleas de silicio y obtener chips de memoria. Este proceso
monolítico tiene la ventaja de que los chips son considerablemente más rápidos que los de la
tecnología opuesta (MLC), mayor longevidad, menor consumo, un menor tiempo de acceso a los
datos. A contrapartida, la densidad de capacidad por chips es menor, y por ende, un considerable
mayor precio en los dispositivos fabricados con éste método. A nivel técnico, pueden almacenar
solamente 1 bit de datos por celda.
Celda de nivel múltiple (MLC)[editar]
Este proceso consiste en apilar varios moldes de la oblea para formar un sólo chip. Las principales
ventajas de este sistema de fabricación es tener una mayor capacidad por chip que con el sistema
SLC y por tanto, un menor precio final en el dispositivo. A nivel técnico es menos fiable, durable,
rápido y avanzado que las SLC. Éstos tipos de celdas almacenan 2 bits por cada una, es decir 4
estados, por esa razón las tasas de lectura y escritura de datos se ven mermadas. Toshiba ha
conseguido desarrollar celdas de 3 bits4
Triple bit por celda (TLC)[editar]
Nuevo proceso en el que se mantienen 3 bits por cada celda. Su mayor ventaja es la considerable
reducción de precio. Su mayor desventaja es que solo permite 1000 escrituras.5
Optimizaciones afines a SSD en los sistemas de archivos[editar]
Los sistemas de archivos se pensaron para trabajar y gestionar sus archivos según las
funcionalidades de un disco duro. Ese método de gestión no es eficaz para ordenar los archivos
dentro del SSD, provocando una seria degradación del rendimiento cuanto más se usa,
recuperable por formateo total de la unidad de estado sólido, pero resultando engorroso, sobre
todo en sistemas operativos que dependan de almacenar diariamente bases de datos. Para
solucionarlo, diferentes sistemas operativos optimizaron sus sistemas de archivos para trabajar
eficientemente con unidades de estado sólido, cuando éstas eran detectadas como tales, en vez
de como dispositivos de disco duro.6
NTFS y exFAT[editar]
Antes de Windows 7, todos los sistemas operativos venían preparados para manejar con precisión
las unidades de disco duro. Windows Vista incluyó la característica ReadyBoost para mejorar y
aprovechar las características de las unidades USB, pero para los SSD tan sólo optimizaba la
alineación de la partición para prevenir operaciones de lectura, modificaciones y escritura, ya que
en los SSD normalmente los sectores son de 4 KiB, y actualmente los discos duros tienen sectores
de 512 bytes desalineados (que luego también se aumentaron a 4 KiB). Entre algunas cosas, se
recomienda desactivar el desfragmentador; su uso en una unidad SSD no tiene sentido, y reduciría
su vida al hacer un uso continuo de los ciclos de lectura y escritura.
Windows 7 viene optimizado de serie para manejar correctamente los SSD sin perder
compatibilidad con los discos duros. El sistema detecta automáticamente si es unidad de estado
sólido o disco duro, y cambia varias configuraciones; por ejemplo, desactiva automáticamente el
desfragmentador, el Superfetch, el Readyboost, cambia el sistema de arranque e introduce el
comando TRIM, que prolonga la vida útil de los SSD e impide la degradación de su rendimiento.
ZFS[editar]
Solaris, en su versión 10u6, y las últimas versiones de OpenSolaris y Solaris Express Community
Edition, pueden usar SSD para mejorar el rendimiento del sistema ZFS. Hay dos modos disponibles,
utilizando un SSD para el registro de ZFS Intent (ZIL) o para la L2ARC. Cuando se usa solo o en
combinación, se aumenta radicalmente el rendimiento.
Los nuevos SSD incluyen la tecnología GC (Garbage Collector), otro mecanismo muy útil, en
especial para las personas que no tienen el PC encendido todo el día, el cual consiste en
programar o forzar limpiezas manuales. A estas utilidades se las conoce como recolectoras de
basura y permiten de un modo manual borrar esos bloques en desuso. Este tipo de utilidades son
útiles si no usamos un sistema operativo como Windows 7 y también se puede usar en
combinación con TRIM.7
Ventajas e inconvenientes[editar]
Ventajas[editar]
Los dispositivos de estado sólido que usan bloques de memorias flash tienen varias ventajas únicas
frente a los discos duros mecánicos:8
Arranque más rápido, al no tener platos que necesiten tomar una velocidad constante.
Gran velocidad de escritura.
Mayor rapidez de lectura, incluso 10 veces más que los discos duros tradicionales más rápidos
gracias a RAIDs internos en un mismo SSD.
Baja latencia de lectura y escritura, cientos de veces más rápido que los discos mecánicos.
Lanzamiento y arranque de aplicaciones en menor tiempo - Resultado de la mayor velocidad de
lectura y especialmente del tiempo de búsqueda. Pero solo si la aplicación reside en flash y es más
dependiente de la velocidad de lectura que de otros aspectos.
Menor consumo de energía y producción de calor - Resultado de no tener elementos mecánicos.
Sin ruido - La misma carencia de partes mecánicas los hace completamente inaudibles.
Mejorado el tiempo medio entre fallos, superando 2 millones de horas, muy superior al de los
discos duros.
Seguridad - permitiendo una muy rápida "limpieza" de los datos almacenados.
Rendimiento determinista - a diferencia de los discos duros mecánicos, el rendimiento de los SSD
es constante y determinista a través del almacenamiento entero. El tiempo de "búsqueda"
constante.
El rendimiento no se deteriora mientras el medio se llena. (Véase Desfragmentación)
Menor peso y tamaño que un disco duro tradicional de similar capacidad.
Resistente - Soporta caídas, golpes y vibraciones sin estropearse y sin descalibrarse como pasaba
con los antiguos discos duros, gracias a carecer de elementos mecánicos.
Borrado más seguro e irrecuperable de datos; es decir, no es necesario hacer uso del Algoritmo
Gutmann para cerciorarse totalmente del borrado de un archivo.
Limitaciones[editar]
Los dispositivos de estado sólido que usan memorias flash tienen también varias desventajas:
Precio - Los precios de las memorias flash son considerablemente más altos en relación
precio/gigabyte, debido a su baja demanda. Ésta como tal no es una desventaja técnica, y según se
logre su uso masificado en detrimento del estándar precedente, su precio se regularizará y se hará
asequible como sucede con los discos duros móviles, que en teoría son más caros de producir por
llevar piezas metálicas y tener mecanismos de alta precisión.
Menor recuperación - Después de un fallo físico se pierden completamente los datos pues la celda
es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son
frecuentemente recuperables usando ayuda de expertos.
Vida útil - Al reducirse el tamaño del transistor se disminuye directamente la vida útil de las
memorias NAND, se solucionaría ya en modelos posteriores al instalar sistemas utilizando
memristores.
Menores capacidades de almacenamiento.
Soluciones[editar]
Aunque su masificación está en entredicho, algunos de los problemas que mayormente afectaron
su uso masivo fueron:
Degradación de rendimiento al cabo de mucho uso en las memorias NAND (solucionado, en parte,
con el sistema TRIM).
Menor velocidad en operaciones E/S secuenciales. (Ya se ha conseguido una velocidad similar).
Vulnerabilidad contra ciertos tipo de efectos - Incluyendo pérdida de energía abrupta (en los SSD
basado en DRAM), campos magnéticos y cargas estáticas comparados con los discos duros
normales (que almacenan los datos dentro de una jaula de Faraday).
http://es.wikipedia.org/wiki/Dispositivo_de_estado_s%C3%B3lido
http://es.wikipedia.org/wiki/Memoria_(inform%C3%A1tica)
http://qloudea.com/blog/que-es-un-disco-duro-ssd/
Presente: Almacenamiento en la nube.
El almacenamiento en nube(del inglés cloud storage), es un modelo de almacenamiento de datos
basado en redes, ideado en los «años 1960»,1 donde los datos están alojados en espacios de
almacenamiento virtualizados, por lo general aportados por terceros.
Las compañías de alojamiento operan enormes centros de procesamiento de datos. Los usuarios
que requieren estos servicios compran o alquilan la capacidad de almacenamiento necesaria. Los
operadores de los centros de datos, a nivel servicio, virtualizan los recursos según los
requerimientos del cliente. Solo exhiben los entornos con los recursos requeridos. Los clientes
administran el almacenamiento y el funcionamiento de los archivos, datos o aplicaciones.
Físicamente los recursos pueden estar repartidos en múltiples servidores físicos.
Se puede acceder a los servicios de almacenamiento en nube por diferentes medios, como una
web service, API, interfaz web o alguna otra seleccionada por el cliente.
Arquitectura del almacenamiento en nube[editar]
El almacenamiento en nube posee las mismas características que la computación en nube con
respecto a agilidad, escalabilidad, «elasticidad» y multiposesión. Se considera que el concepto se
forjó en el decenio de los «años 1960»1 por Joseph Carl Robnett Licklider. Desde los '60s, la
computación en nube se fue desarrollando en varias áreas. Las implementaciones recientes se
deben a la Web 2.0. Esto se debió a que las grandes velocidades de ancho de banda y los bajos
costes de almacenamiento y procesamiento no se extendieron hasta finales de los '90s, lo cual
retrasó la implementación y el desarrollo masivo de las soluciones basadas en computación en
nube. Solo algunas entidades tenían la infraestructura para desarrollar estos conceptos.
Uno de los logros tempranos de la computación en nube llegó en 1999, con salesforce.com,
pionera en la entrega de aplicaciones corporativas por medio de una interfaz web. Esta compañía
demostró a los especialistas y compañías de desarrollo de software la ventaja del uso de portales
web para entrega de sus productos. FilesAnywhere también colaboró en el esquema de servicios
basados en almacenamiento en nube, que permitió a los usuarios compartir sus archivos de forma
segura por Internet. Actualmente ambas compañías aún ofrecen sus servicios.
Existe dificultad para definir con términos claros la arquitectura del almacenamiento en nube,
pero es claramente análogo al concepto de almacenamiento de objetos. Servicios de
almacenamiento en nube provistos por Amazon S3, productos de almacenamiento en nube de
EMC Atmos y proyectos de investigación de almacenamiento como Oceanstore2 son ejemplos
claros y ofrecen pautas acerca del almacenamiento de objetos.
Almacenamiento en nube se define como un entorno de almacenamiento compuesto por muchos
recursos distribuidos, pero actúa como uno solo con gran tolerancia a fallos porque implementa
redundancia y distribución de datos, que posibilita la perpetuidad o la recuperación de la
información por sus versionalización de copias, que mejora la consistencia eventual de las réplicas
de datos.
Las necesidades son cada vez mayores, pero la necesidad de avance tecnológico condujo al
sistema de nube, denominada cloud computing o computación en la nube, por cuya virtud todos
los datos de la empresa se encuentran disponibles en Internet.
Tipos de Nubes
Dropbox
Dropbox es un servicio de alojamiento de archivos multiplataforma en la nube, operado por la
compañía Dropbox. El servicio permite a los usuarios almacenar y sincronizar archivos en línea y
entre ordenadores y compartir archivos y carpetas con otros usuarios y con tabletas y móviles.1
Existen versiones gratuitas y de pago, cada una de las cuales tiene opciones variadas. Está
disponible para Android, Windows Phone, Blackberry e IOS (Apple).
Google Drive
Google Drive es un servicio de alojamiento de archivos que fue introducido por Google el 24 de
abril de 2012.
Es el reemplazo de Google Docs que ha cambiado su dirección URL, entre otras cualidades.
Cada usuario cuenta con 15 gigabytes de espacio gratuito para almacenar sus archivos, ampliables
mediante diferentes planes de pago. Es accesible a través del sitio web desde computadoras y
dispone de aplicaciones para Android e iOS que permiten editar documentos y hojas de cálculo.
iCloud
iCloud es una plataforma de Apple y un sistema de almacenamiento en la nube. Ofrece un gran
servicio para los clientes de Mac e iOs. Se trata de una plataforma para editar y compartir
documentos y permite a los usuarios almacenar datos para luego poder acceder a ellos desde
cualquier equipo.
iCloud guarda sus sitios favoritos para que se pueda acceder a ellos desde cualquier lugar con su
iPhone, iPad, iPod touch, Mac o Pc e incluso se pueden realizar copias de seguridad de los equipos.
iCloud fue lanzado el 12 de Octubre de 2011 y, desde julio de 2012, ya cuenta con más de 150
millones de usuarios.
Onedrive
Onedrive es un servicio de almacenamiento en la nube de Microsoft y es esencial para los usuarios
de Windows. Con este servicio se pueden almacenar fotografías, vídeos, y todo tipo de archivos y
documentos. Ofrece diferentes opciones para poder compartir los contenidos almacenados. De
ahí que sea un sistema multiplataforma. Es compatible con equipos Windows, Mac y plataformas
iOs, Android o Windows Phone.
http://es.wikipedia.org/wiki/Almacenamiento_en_nube
http://es.wikipedia.org/wiki/Base_de_datos_en_la_nube
http://es.wikipedia.org/wiki/Servicio_de_alojamiento_de_archivos
ByRokr