Más artículos

Cloud computing

Amazon se adelanta a Microsoft, Google e IBM y lanza chips para conquistar los negocios en la nube

Amazon se adelanta a Microsoft, Google e IBM y lanza chips para conquistar los negocios en la nube
Para ciertas cargas de trabajo, como los servidores web, los costos podrían ser hasta un 45 por ciento más bajos con esta tecnología
Por César Dergarabedian
27.11.2018 05.53hs Innovación

Amazon Web Services (AWS), la unidad de negocios en la nube de Amazon, anunció este lunes el lanzamiento de plataformas informáticas que se basan en chips de servidor basados en la arquitectura de procesamiento de ARM. Esto, seguró la empresa, permitirá ofrecer opciones más baratas a sus clientes.

El anuncio tuvo lugar en la conferencia “re:invent” de ciudad estadounidense de Las Vegas, donde más de 50 mil personas convocadas por AWS pueden ver todas las novedades de la empresa y capacitarse en sus tecnologías.

A principios de este año, AWS había anunció plataformas de este tipo basadas en chips de la empresa AMD, disponibles junto con las basadas en Intel.

Para tener una idea de lo que representa el negocio de la “cloud computing” de la empresa de Jeff Bezos, vale el siguiente dato: "Web Services" generó un crecimiento de ingresos del 46% en el tercer trimestre de este año, mientras que las tiendas en línea de Amazon tuvieron un crecimiento del 10%.

Con esto en mente, el negocio de la nube de la firma está saliendo al mercado con opciones más baratas, gracias a los beneficios de la arquitectura de procesamiento de ARM.

AWS, claro líder del mercado para infraestructura de nube pública, es el primero de los grandes proveedores de “cloud” en lanzar recursos informáticos basados en esa tecnología.

Al mismo tiempo, Microsoft, Google, IBM y otros jugadores compiten con Amazon para proporcionar una infraestructura de nube pública, en la cual las compañías confían para almacenar sus datos y ejecutar sus aplicaciones.

En estos servicios -y los centros de datos corporativos locales- las cargas de trabajo informáticas de los clientes se ejecutan a menudo en chips basados en tecnología de Intel.

ARM, propiedad de SoftBank y cuya estructura es ampliamente utilizada para chips en teléfonos inteligentes y tabletas, durante mucho tiempo fue considerada como una alternativa potencial que podría funcionar en servidores con menos uso de energía, lo que podría llevar a costos más bajos.

Las plataformas de computación EC2 A1 de AWS se basan en el procesador Graviton basado en ARM de Annapurna, el grupo de desarrollo de chips de AWS.

Peter DeSantis, vicepresidente de infraestructura global de AWS, dijo durante su presentación en la conferencia que “para ciertas cargas de trabajo, como los servidores web, los costos podrían ser hasta un 45 por ciento más bajos con esta tecnología”.

Cabe destacar que Amazon compró Annapurna en 2015. Previamente había contratado a varias personas de Calxeda, una empresa que trabajaba en sistemas de servidores basados en ARM.

Si bien el comercio electrónico sigue generando la mayor parte de los ingresos del gigante  de Seattle, AWS se ha vuelto crítica para la salud financiera de la compañía. En el tercer trimestre de este año, más de la mitad de las ganancias operativas de Amazon provinieron de este segmento.

En concreto, esta división ahora tiene más de 125 servicios disponibles para los clientes, incluido el central de computación EC2. Las plataformas A1 están disponibles ahora en cuatro de las regiones de centros de datos de AWS en todo el mundo.

La batalla de los chips

La compañía no proporcionó muchos detalles sobre el procesador en sí, pero DeSantis dijo que “está diseñado para cargas de trabajo de escalabilidad horizontal que se benefician de la gran cantidad de servidores que detectan un problema”.

EC2 A1 puede ejecutar aplicaciones escritas para Amazon Linux, Red Hat Enterprise Linux y Ubuntu y estará disponible en cuatro regiones: en el norte de Virginia, Ohio y Oregón (en Estados Unidos), y en Irlanda.

Esta estrategia apunta a enfrentar el dominio que tiene Intel en el mercado de chips de servidores, tanto en la nube como en sistemas locales.

AMD ha intentado desafiar ese liderazgo a lo largo de los años con poco éxito, aunque sus nuevos procesadores Epyc han sido bien recibidos por los compradores de servidores y las compañías que operan en la nube.

Muchas firmas han intentado -y fracasado- en la construcción de procesadores de servidores atractivos utilizando la arquitectura ARM, que disfruta de la misma cuota de mercado en teléfonos móviles que Intel en el centro de datos.

ARM diseña los núcleos de procesadores que otras compañías utilizan en el corazón de sus propios diseños de chips, y compañías como Qualcomm y Ampere han intentado construir un negocio en torno a estos diseños.

“El líder de la nube ha estado incorporando el silicio personalizado a sus centros de datos a un ritmo gradual para cargas de trabajo específicas como el aprendizaje automático”, dijo DeSantis.

Un acelerador para la nube

AWS anunció también un servicio de red que permite el “enrutamiento automático” del tráfico a múltiples regiones.

El Acelerador Global de la compañía fue presentado por DeSantis como una mejora en la disponibilidad y el rendimiento para los usuarios finales de sus clientes.

¿Cómo funciona? El tráfico de usuarios ingresa a AWS Global Accelerator a través de la ubicación más cercana. Allí, el acelerador “enruta” el tráfico del usuario al punto final de aplicación más cercano dentro de la red global de AWS.

Por último, la respuesta de la aplicación regresa a través de la red global de AWS y llega al usuario a través del punto final óptimo.

Los carga se dirige según su ubicación geográfica, el estado de la aplicación y los pesos que el cliente de AWS puede configurar. El nuevo servicio también asigna direcciones IP estáticas de Anycast.

En AWS Global Accelerator, los clientes pagan por cada acelerador que se implementa y la cantidad de tráfico en la dirección dominante que fluye a través del acelerador. La compañía espera que los clientes configuren un acelerador para cada aplicación, pero las aplicaciones más complejas pueden requerir más de una.

Se cobrará a los usuarios una tarifa fija por hora (0,025 dólar) por cada acelerador que se esté ejecutando, sobre las tasas de transferencia de datos estándar.

Las tasas de transferencia de datos estándar, también llamadas tarifa Premium por transferencia de datos (DT-Premium), se calculan cada hora en la dirección dominante del tráfico, que puede ser el entrante a una aplicación, o el saliente desde una aplicación hasta el final usuarios

DT-Premium se cobra a una tasa por gigabyte de datos transferidos a través de la red de AWS, y el costo depende de la región de AWS que atiende la solicitud y la ubicación de borde de AWS. AWS Global Accelerator está disponible en Estados Unidos, Europa y Asia y el Pacífico,

También se anunció la disponibilidad de la puerta de enlace de tránsito de AWS, promocionada por la compañía como la manera de construir una topología de red de hub-and-radios.

DeSantis explicó al respecto: “los usuarios pueden conectar computadoras virtuales, centros de datos, oficinas remotas y puertas de enlace remotas existentes a una puerta de enlace de tránsito administrada, con control total sobre el enrutamiento y la seguridad de la red.

Es una forma de simplificar la arquitectura de red, reducir la sobrecarga operacional y administrar centralmente la conectividad externa”.

Asimismo, DeSantis aseguró que los usuarios también pueden usar Transit Gateways para consolidar la conectividad de borde existente y enrutarla a través de un único punto de ingreso / egreso.

“Los clientes pueden conectar hasta 5.000 computadoras virtuales a cada puerta de enlace y cada uno de ellos puede manejar hasta 50 Gbps de tráfico”, finalizó el ejecutivo.

Enterate lo último sobre economía digital, startups, fintech, innovación corporativa y blockchain