Joomla TemplatesWeb HostingFree Money
Visite Nuestros Portales Especializados
Empresas, Productos, Marcas, Cultura, Salud, Industria de la hospitalidad, Deportes Tecnología, Telecomunicaciones EconomiayMercados.com Libros Canal de YouTube Síganos en Twitter Estamos en Facebook

Home » Opinión- » Columnista » Tendencias para el 2013 en infraestructura de IT

Calendario Colombia

Calendario Colombia 2021



Calendario Colombia 2022

Evaluación de Productos

Guía para Periodistas

Privacidad
en
Internet
para
Periodistas
Por Michael Dagan

 Privacidad en internet para periodistas
Lectura Sin Costo
Edición en Línea
En Español

Facebook

Hora Legal en Colombia

 
Tendencias para el 2013 en infraestructura de IT
Opinión
Lunes, 27 de Mayo de 2013 00:30

Nelson Farfán, RCDD Bicsi, CCRE
Nelson Farfán, RCDD Bicsi, CCRE
El incremento de la información necesaria para vivir en sociedad y el creciente número de dispositivos móviles ha hecho que los datos se deban manejar con más seguridad y mayor administración.

Tendencias para el 2013 en infraestructura de IT
Por Nelson Farfán,
RCDD Bicsi (Registered Communications Distribution Designer),
CCRE (Certified Computer Room Expert
El incremento de la potencia de cómputo de los procesadores de hoy, implica un lógico incremento en los interfaces de red, SAN y otros que tienen la función de manejar los periféricos mínimos en un sistema. Esto implica que el nivel físico, encargado de soportar todos los 6 restantes niveles del estándar OSI, lo debamos elegir cada vez más confiable y a prueba de futuro por el gran salto que ha estado dando la capacidad de transmisión por lo menos cada 5 años.

El ancho de banda, que crece por requerimientos de los usuarios, ya está exigiendo operación de los servidores en los centros de datos mínimo a 10 GB/seg, hemos vivido un crecimiento vertiginoso en los niveles de transmisión que podemos ver de forma importante desde el quinquenio del 85 cuando se trabajaba a nivel de usuario a velocidades de 1 Mb/seg luego en el 90 cuando se impone el Ethernet a 10 Mb/seg y se crece en 95 a 100 MB/seg para convertirse en 1000 MB/seg (1 GB) en el año 2000.

Aquí comienza el desarrollo de la tecnología de 10 GB/seg para los grandes Datacenter manejando ese flujo de datos por medio de fibra óptica lo cual ofreció grandes beneficios para el crecimiento de la tecnología en general y los servicios para todo usuario de IT. Ahora llego el momento de la aplicación masiva de la misma tecnología pero sobre cables de cobre que hacen que este paso, de fibra a cobre, en canales de menos de 100 metros; sea al menos cuatro veces más económica.

Según la firma de investigación de tecnología Crehan Research la gran inflexión creciente se dará entre el 2013 y los siguientes tres años esperándose que transcurrido 2014, el número de adaptadores para servidores de 10Gb sobrepase el de 1GB. Por tanto la infraestructura de conectividad, para esta tecnología que es muy sensible al precio, exigirá una buena selección del medio utilizado que en su mayoría será cableado de cobre de alto rendimiento el cual debe tener buen performance en cualquier ambiente y poder enfrentar el reto que implica su instalación en sitios expuestos a variaciones de temperatura, ruido electromagnético y convivencia con muchos otros servicios inherentes a los espacios para servicios de procesamiento de datos.

Los equipos servidores en el nivel de acceso que en un tiempo fueron consolidados para disminuir su cantidad y luego fueron virtualizados para ganar optimización de los mismos, ahora deben trabajar con las tecnologías “cloud” en las cuales se verá un crecimiento de las soluciones personales y/o privadas que conformarán un mejor servicio cuando se llevan a compartir con las Cloud públicas formando una solución hibrida que requiere buena respuesta en velocidad de transferencia de grandes archivos. Si estábamos hablando de servidores que deben comunicarse a 10 Gb/seg, la segunda capa de agregación al menos debe ser capaz de manejar transferencias de 40 Gb/seg lo que significa que el año lo debemos comenzar con la preparación de nuestras redes de fibra óptica internas en los centros de datos y backbone para que tengan esta capacidad con soluciones “Listas para 40Gb o 100 Gb” que están conformadas por conectores especiales de mínimo 12 hilos de tecnología MPO/MTP teniendo en cuenta que si actualmente la conexión es a 10 Gb o 1 GB, sean instalados los adaptadores que ofrecen flexibilidad para seleccionar la solución requerida en el canal de interconexión.


Debido a que también esta conexión de 40 GB es muy sensitiva al costo, los desarrolladores de tecnología como la TIA que emite las normas para Estados Unidos y la ISO que hace las normas aplicables a nivel mundial, están trabajando en la conformación de estándares para cableado en cobre que pueda manejar la mencionada velocidad de transferencia. El objetivo es tener listos los primeros “draft” o borradores públicos finalizando el 2013. Las categorías o calificaciones para los elementos de un canal de datos, hasta ahora publicadas por la ISO van desde la Categoría 3 hasta la 7A y la TIA las tiene publicadas solamente hasta la 6A. En el pasado octubre la TIA decidió darle el nombre de Categoría 8 a su nueva solución cuyas características de performance planteadas están entre los valores de la categoría 6A y la categoría 7A actuales. Aun quedan muchas decisiones por tomar pero el objetivo de las dos instituciones es tener soluciones que cubran esta gran necesidad de la interconexión a grandes volúmenes de datos que nos hacen hablar ahora de Gigas, Teras, Petas, multiplicando cada vez la cantidad de unidades de información por 1.000. A la fecha el mayor sistema de cableado es el compuesto por elementos de categoría 7A a 1000 Mhz 100 metros.

El incremento de la información necesaria para vivir en sociedad y el creciente número de dispositivos móviles ha hecho que los datos se deban manejar con más seguridad y mayor administración. Un concepto que se impone será el de “Big Data” que implica dejar de almacenar todos los datos en un único sistema, define la creación de múltiples sistemas administrables de manera lógica para que su contenido sea manejado con mayor eficiencia con resultados más rápidos lo que también implica compartir información entre dispositivos SAN o NAS con Switchs y servidores veloces requiriendo así una infraestructura de cableado de fibra o cobre que interconecte los equipos en “grilla” o “Malla” conformando una topología especial donde el concepto “Any to All” o “capacidad de interconectar cualquier equipo con cualquier otro” ayudara a lograr que la búsqueda de un dispositivo sea ágil y segura.

En el 2013 se espera que continúe con la centralización de grandes volúmenes de datos y es aquí donde el diseño de los Datacenter requiere de decisiones acertadas para poder conseguir mayor densidad en poco espacio utilizando gabinetes especiales que me permitan el total aprovechamiento de su capacidad medida en unidades de rack esto puede aumentar la potencia por rack lo que inspiro a los diseñadores a lanzar soluciones especiales de enfriamiento entre las cuales se retomaran los sistemas a base de agua aprovechando que esta es 3.000 veces más eficiente que el aire para esa labor. Se impondrá también la medición de la Eficiencia en la Utilización de la Energía (PUE) por medio de software especializado como el DCIM “Gerenciamiento de infraestructura de datacenter” que interpretaran los datos de los equipos de soporte incluyendo distribuidores de potencia (PDU) inteligentes a instalar en cada Rack.

Se crearán especialidades nuevas en el personal de IT para ofrecer más servicios con menor costo y se administraran las redes físicas con sistemas inteligentes en tiempo real. Además se prevé que existan coordinadores de sostenibilidad que logren el objetivo de ser “Green” y optimicen los escasos recursos que el procesamiento está ayudando a terminar.


Foto Siemon

 

 

Derechos Reservados - MarcasyMercadosIT.com - 2007-2020 - Designed By Joomla