Hola a todos,

En esta ocasión mi entrada está relacionada con otra de mis grandes pasiones, Cloud Computing.

Como bien es sabido Amazon en su constante carrera por innovar nos deleita con multitud de servicios Cloud, de los cuales unas veces mueren por falta de uso práctico, y otras son auténticas maravillas, además la competencia es el espejo en el que se mira, y cada movimiento de AWS en el mercado no pasa desapercibido. Supongo que eso mismo sucederá con este nuevo servicio denominado Elastic File System que aun se encuentra en fase Beta, y que entra dentro de los servicios Storage & Content Delivery.

A día de hoy AWS nos ofrece los siguientes servicios de almacenamiento:

  • Simple Storage Service(S3) : Almacenamiento de objetos seguro, duradero y altamente escalable. Amazon S3 es fácil de utilizar con una sencilla interfaz de servicios web para almacenar y recuperar la cantidad de datos que desee desde cualquier ubicación de la web. puede utilizarse de forma independiente o junto con otros servicios de AWS como Amazon Elastic Compute Cloud (Amazon EC2), Amazon Elastic Block Store (Amazon EBS) y Amazon Glacier 
  • AWS Glacier : Almacenamiento en la nube de coste extremadamente bajo que ofrece almacenamiento seguro y duradero para realizar copias de seguridad y archivar datos. Para mantener un bajo coste, Amazon Glacier está optimizado para datos a los que se accede con poca frecuencia y para cuando los tiempos de recuperación de varias horas son necesarios.
  • Elastic Block Storage EBS: Es el almacenamiento en bloque persistente, el que vemos en las instancias EC2 virtual machines presentado como volumen de disco.

Así que veamos que nos va a ofrecer Elastic File System…

image

  

  

  1. EC2: Servicio de almacenamiento para instancias EC2.
  2. RENDIMIENTO: Se basa en SSD con lo que su rendimiento es alto, IOPS y baja latencia.
  3. COMPATIBILIDAD: Compatible con el protocolo NFSv4 (Network File System version 4), lo cual asegura la compatibilidad entre los servicios que podamos utilizar en AWS y EFS.
  4. ALMACENAMIENTO COMPARTIDO: Acceso compartido a los volúmenes EFS desde varías instancias EC2, con lo que se puede tener una fuente de datos común (tipo shared folder) para cargas de trabajo, y aplicaciones ejecutadas en más de una instancia.
  5. BAJO COSTE: Solo se paga por el almacenamiento que se utiliza, no hay que aprovisionar con antelación, según crece o decrece el volumen se paga. Aquí tenemos la elasticidad asegurada.
  6. ALTA DISPONIBILIDAD: Cada objeto del sistema de archivos EFS (Directorio, archivo, y enlace) se almacena de manera redundante en distintas zonas de disponibilidad.
  7. ADMINISTRACIÓN: A través de API, consola o CLI.

Entre los casos de uso por ejemplo relacionado con su elasticidad y rendimiento tenemos Big Data, como siempre entornos de desarrollo, por fin podemos enfocarlo como directorios particulares de los empleados de las organizaciones tipo almacenamiento individual, o recursos compartidos. Otro caso de uso es como repositorio de contenido … y seguro que a vosotros se os ocurren muchos más.

 image

Vista previa de Amazon EFS – Próximamente

Amazon EFS se encontrará disponible próximamente en vista previa en la región EE.UU. Oeste (Oregón). Envíe la información que se indica a continuación para solicitar una invitación de acceso a la vista previa. Nos pondremos en contacto con usted para facilitarle instrucciones acerca de cómo comenzar en cuanto podamos incluirlo en la vista previa. Si os queréis inscribir para tener acceso a la vista previa aquí:

http://aws.amazon.com/es/efs/preview/

 

Como siempre Amazon pone a nuestra disposición información muy interesante de este producto en su web http://aws.amazon.com/es/efs/ os invito a que lo leáis, y profundicéis más en este nuevo servicio, que seguro va a dar mucho que hablar.

Yo estoy deseando probarlo, y ver su rendimiento.

Un saludo,

Daniel Graciá

image

Data Deduplication. Hoy hablaremos de esta nueva característica disponible en Windows Server 2012. Como su nombre indica nos permitirá ahorrar espacio en disco almacenando una única copia de datos que sean idénticos en un volumen.

Según la teoría Data Deduplication identifica y elimina los datos duplicados dentro de un volumen, sin poner en peligro la integridad de los mismos, lo que nos permitiría tener más datos con una menor ocupación de disco.

Cuando lo habilitamos, una tarea se ejecuta en segundo plano revisando e identificando duplicados, comprimiendo datos, segmentando cadenas de datos, etc. La segmentación la realiza en pedazos de fichero de entre 32 y 128 KB, entonces identifica pedazos duplicados en el volumen. Todos los duplicados son borrados del disco (con una referencia a una copia del pedazo que se mantiene). Y los datos que no son eliminados son comprimidos.

Esta tarea en segundo plano, no consume grandes recursos, no obstante podemos programar cuando se ejecutan los trabajos de Data Deduplication, por ejemplo podemos elegir una hora valle de nuestro servidor (por la noche, que no coincida con el backup) y programar la tarea. También podemos definir que recursos dentro de un volumen queremos incluir, incluso ficheros.

Consideraciones (una vez instalada la característica):

  • Habilitar data deduplication por volumen.
  • Volúmenes no pueden ser volumen de sistema ni de arranque.
  • Volúmenes deben ser particionados como MBR o GUID, y formateados en NTFS el nuevo sistema de ficheros ReFS (Resilient File System) no está soportado … quien sabe si para el SP1 lo incluirán.
  • Volúmenes pueden locales o estar en almacenamiento por red, fibra.
  • Volúmenes CSV (Cluster Shared Volumes) no están soportados.
    ¿Cuando usamos Data Deduplication?
    Como ya hemos comentado en teoría no consume muchos recursos, pero supongo que en volúmenes grandes y con muchos ficheros esto tiene que empezar a consumir memoria. Por eso lo aconsejable es programar los jobs. Además con la instalación por defecto solo los ficheros más antiguos de 30 días serán procesados.

File Shares: Carpetas personales, perfiles de usuario. 30 – 50 % de ahorro en disco.

Software Deployment Shares: binarios, plantillas y actualizaciones (WSUS) son candidatos perfectos para esta característica. 70 – 80 % de ahorro en disco.

Librerías VHD, incluye el almacenamiento VHD para aprovisionamiento de Hyper V. Nos comentan que podemos ahorrar entre un 80 – 95 %.

Existe una herramienta DDPEval.exe que analiza el volumen que indiquemos y nos muestra la información acerca de cuanto espacio en disco podríamos ahorrar en ese volumen habilitando deduplication. La herramienta se instala automáticamente en \\Windows\System32 en los equipos donde se haya habilitado Data Deduplication.

¿Como se instala?

Necesitamos un sistema con Windows Server 2012. Y en el Rol de servicios de archivos y almacenamiento lo buscamos y seleccionamos.

image

Una vez instalado y reiniciado el servidor, ahora podemos habilitar esta característica.

Para ellos vamos a el administrador de discos y sobre el volumen que deseamos habilitarlo marcamos la opción

image

Como veis la configuración es bastante sencilla, podemos definir que se desdupliquen archivos con más de x días, en este caso 30. Excluir extensiones de ficheros, por ejemplo ficheros de Word … Carpetas.

image

Y como podréis observar abajo tenemos el botón de Establecer programación de desduplicación, con todas las opciones disponibles para optimizar el rendimiento.

image

Más información:

 

http://blogs.technet.com/b/filecab/archive/2012/05/21/introduction-to-data-deduplication-in-windows-server-2012.aspx

 

DGM