Nouveau record de stockage pour IBM et Sony : 330 To sur une cassette

Nouveau record de stockage pour IBM et Sony : 330 To sur une cassette
Innovation

record-stockage-ibm-sony

IBM et Sony viennent d’annoncer qu’ils avaient réussi à faire tenir 330 To de données sur une cassette de la taille d’une main. Spécialiste du stockage sur bande magnétique, IBM ne cesse depuis 2006 de battre ses propres records en la matière.

Inventé dans les années 1950, le stockage de données par bande magnétique n’a jamais atteint le grand public, car les conditions de conservation pour ne pas abimer la bande sont drastiques et nécessitent des équipements permettant de maintenir les pièces contenant ces cassettes à température et humidité constantes.

La bande magnétique : utilisée pour les sauvegardes de serveurs et data centers

Mais ce système permet une miniaturisation et une fiabilité qui le rende précieux pour les serveurs et les data centers (centre de données) ; si les données utilisables sont stockées sur des disques durs, toutes les sauvegardes se font sur cassette à bande magnétique – oui, comme une VHS ou une cassette audio, mais qui contiendrait des centaines de disques durs dernière génération !

IBM est le spécialiste de cette miniaturisation, et c’est en partenariat avec Sony qu’il vient de pulvériser son propre record, qui datait de 2015, en faisant rentrer 330 To sur une cassette de la taille d’une main humaine : voici deux ans, la cassette ne contenait « que » 220 To, soit une spectaculaire progression en quelques mois. A titre de comparaison, le record de 2006 était de 8 To… Autre temps, autres mœurs !

Sur un support équivalent, IBM est passé de 8 à 330 To de données en dix ans

Les dernières trouvailles des ingénieurs pour faire rentrer encore plus de données sur un espace équivalent sont, coté Sony, un lubrifiant permettant de réduire la friction sur la bande magnétique (et donc rendant l’écriture et la lecture des données plus fluides) ainsi que des couches magnétiques plus pures et fines – et, coté IBM, une optimisation des têtes de lecture / écriture et de nouveaux algorithmes traitant le signal.