Si hay un actor en Internet que lleva décadas demostrando estar preocupado por la preservación de todo el contenido que se genera en la Red, ese es Internet Archive, que con su mítica Wayback Machine permite ver 468.000 millones de páginas web en momentos muy concretos.

Un intento más para que todas las webs sean visitables pase lo que pase

Con esta dedicación, Internet Archive se ha unido a Cloudflare, el CDN (Content Delivery Network) más famoso de Internet, y actor clave contra las caídas de las páginas web y contra los ataques DDoS. Esta alianza ha dado sus frutos en "Always Online" o "Siempre online", un servicio con el que garantizar que pese a estar caída, los usuarios puedan seguir accediendo a una página web, o al menos a lo que se haya archivado sobre ella.

Así funciona el sistema "Always Online"

Cloudflare ha resaltado la tarea de Internet Archive, particularmente la escala de todo lo que tienen archivado, 45 petabytes de información. Esto hace que "Siempre online" vaya a ser algo posible, pues de otra manera no podría hacerse la magia que han prometido para que los usuarios vean menos mensajes de "web no accesible".

Cloudflare ha explicado el funcionamiento de la alianza, y es muy interesante, porque implica más tareas para Internet Archive de las que hasta ahora llevaba a cabo. A partir de ahora indexarán y archivarán más dominios que antes, en muchos casos por primera vez. Así, cuando se caigan dichas webs, Internet Archive podrá servirlas, pues hasta ahora había muchas que no tenían disponibles.

Cloudflare siempre intentará servir la web en línea. Si no fuera posible, buscará una copia local en el centro de datos. Y si esta no existiera, recurrirá a la página más reciente de las archivadas en el Internet Archive. Cuando esto ocurra, se indicará que la web que se está es una copia archivada, en la que el contenido dinámico puede contener errores, informó Genbeta.

Otros experimentos para resguardar la información

junio de 2018 y el gigante tecnológico Microsoft anunció uno de sus proyectos más curiosos: Project Natick. La idea consistía en sumergir un centro de datos con 864 servidores en el fondo del océano para ver si es más fácil mantenerlo ahí que en la superficie.

El contenedor de datos de Microsoft

Dos años después lo han sacado de nuevo a superficie una vez el experimento ha finalizado. Y parece ser que ha sido todo un éxito. El centro de datos ha estado sumergido a unos 35 metros de profundidad en el fondo del océano durante aproximadamente dos años.

El equipo de Microsoft detrás del proyecto planteó la posibilidad de que debajo del agua un centro de datos sería más estable y energéticamente eficiente. Es decir, un centro de datos en tierra está expuesto a muchos más factores externos de los que se pueden dar en el fondo del mar. Por lo tanto, en principio se requiere más mantenimiento y consumo de recursos para ellos.

Te puede interesar