À l’aide de Wall Street secrets de réduire le coût de l’infrastructure cloud
Les investisseurs boursiers s’appuient souvent sur le risque financier, les théories qui les aident à maximiser le rendement tout en minimisant les pertes financières dues aux fluctuations du marché. Ces théories aider les investisseurs à maintenir un portefeuille équilibré pour s’assurer qu’ils ne serez jamais perdre plus d’argent qu’ils sont prêts à s’en séparer à un moment donné.
Inspiré par les théories, MIT les chercheurs, en collaboration avec Microsoft ont développé une “conscience des risques” modèle mathématique qui pourrait améliorer les performances du cloud computing, réseaux à travers le monde. Notamment, l’infrastructure cloud est extrêmement cher et consomme beaucoup d’énergie dans le monde.
Leur modèle prend en compte des probabilités de défaillance des liens entre les centres de données dans le monde entier — s’apparente à la prévision de la volatilité des actions. Ensuite, il exécute un moteur d’optimisation pour allouer le trafic par le biais de chemins optimaux pour réduire les pertes, tout en maximisant l’utilisation globale du réseau.
Le modèle pourrait aider les grandes cloud-les fournisseurs de services, tels que Microsoft, Amazon et Google — mieux utiliser leur infrastructure. L’approche classique est de maintenir les liens inactifs afin de gérer le trafic inattendu changements résultant de la défaillance d’une liaison, ce qui est un gaspillage de l’énergie, de la bande passante, et d’autres ressources. Le nouveau modèle, appelé TeaVar, d’autre part, des garanties que pour un pourcentage cible de temps à — dire 99,9% — le réseau peut gérer toutes les données de trafic, donc il n’est pas nécessaire de conserver tous les liens inactifs. Pendant 0,01% du temps, le modèle conserve également les données chuté aussi bas que possible.
Dans les expériences sur des données réelles, le modèle a pris en charge trois fois le trafic de débit qu’traditionnel de la circulation-les méthodes d’ingénierie, tout en maintenant le même niveau élevé de disponibilité du réseau. Un papier décrivant le modèle et les résultats seront présentés lors de l’ACM SIGCOMM la conférence de cette semaine.
Une meilleure utilisation du réseau peut enregistrer les fournisseurs de services en millions de dollars, mais les prestations “trickle down” pour les consommateurs, dit le co-auteur Manya Ghobadi, le TIBCO Développement de Carrière de Assistant Professeur au MIT Département de Génie Électrique et Informatique et chercheur au Computer Science and Artificial Intelligence Laboratory (CSAIL).
“Ayant plus utilisé de l’infrastructure n’est pas seulement bon pour les services de cloud — c’est mieux pour le monde,” Ghobadi dit. “Les entreprises n’ont pas à acheter autant de l’infrastructure afin de vendre des services aux clients. De Plus, étant en mesure d’utiliser efficacement ressources des datacenters pouvez économiser d’énormes quantités de la consommation d’énergie de l’infrastructure en nuage. Donc, il y a des avantages à la fois pour les utilisateurs et pour l’environnement en même temps.”
Rejoindre Ghobadi sur le papier sont ses élèves Jeremy Bogle et Nikhil Bhatia, à la fois de CSAIL; Ishai Menache et Nikolaj Bjorner de Microsoft Research; et Asaf Valadarsky et Michael Schapira de l’Université hébraïque.
Sur l’argent
Les fournisseurs de services Cloud utilisent des réseaux de fibres optiques câbles de métro, reliant des centres de données dans des villes différentes. Pour acheminer le trafic, les fournisseurs de compter sur “traffic engineering” (TE) logiciel de façon optimale alloue la bande passante de données — quantité de données qui peuvent être transférées à un moment donné, à travers tous les chemins d’accès au réseau.
L’objectif est d’assurer une disponibilité maximale pour les utilisateurs à travers le monde. Mais c’est difficile quand certains liens peuvent échouer de façon inattendue, en raison de la chute dans l’optique de la qualité du signal résultant de pannes ou de lignes de coupe lors de la construction, entre autres facteurs. Pour rester robuste à l’échec, les fournisseurs de garder de nombreux liens à très faible taux d’utilisation, à l’affût d’absorber les données complètes des charges de tombée des liens.
Ainsi, il est délicat compromis entre la disponibilité du réseau et de l’utilisation, ce qui permettrait de plus grandes quantités de données. Et c’est là que traditionnel TE méthodes échouent, les chercheurs disent. Ils trouvent des chemins optimaux en fonction de divers facteurs, mais jamais de quantifier la fiabilité des liens. “Ils ne disent pas, » Ce lien a une probabilité plus élevée d’être en place et en cours d’exécution, ce qui signifie que vous doit envoyer plus de trafic ici,” Bogle dit. “La plupart des liens dans un réseau d’exploitation à faible taux d’utilisation et ne sont pas envoyer autant de trafic qu’ils pourraient l’être de l’envoi.”
Les chercheurs ont plutôt un TE le modèle qui s’adapte de base en mathématiques de “conditionnel « valeur à risque »,” une évaluation des risques de mesure qui permet de quantifier la perte moyenne d’argent. Avec l’investissement dans des actions, si vous avez une journée de 99 pour cent de la valeur à risque conditionnelle de 50$, votre perte attendue le pire des cas 1% scénario de cette journée est de 50$. Mais 99% du temps, vous allez faire beaucoup mieux. Cette mesure est utilisée pour investir dans le marché boursier qui est notoirement difficile à prédire.
“Mais le calcul est en fait un meilleur ajustement pour notre infrastructure cloud, le Ghobadi dit. “La plupart du temps, le lien des échecs sont dus à la vétusté des équipements, de sorte que la probabilité de défaillance ne changent pas beaucoup au fil du temps. Cela signifie que nos probabilités sont plus fiables, par rapport à la bourse.”
Conscients des risques de modèle
Dans les réseaux, les données de la bande passante actions sont analogues à a investi de l’argent“,” et l’équipement de réseau avec des probabilités différentes de l’échec sont les “stocks” et leur incertitude de l’évolution des valeurs. En utilisant les formules sous-jacentes, les chercheurs ont conçu une “conscience des risques qui, à l’instar de sa contrepartie financière, les garanties de données atteindra sa destination 99,9% du temps, mais garde la perte de trafic au minimum au cours de 0,1 pour cent des cas les pires scénarios de défaillance. Qui permet aux fournisseurs de services en nuage pour syntoniser la disponibilité de l’utilisation des compromis.
Les chercheurs ont statistiquement mappé trois ans’ la valeur de la force du signal du réseau à partir de Microsoft réseaux qui relie les centres de données d’une distribution de probabilité de défaillance d’une liaison. L’entrée est de la topologie de réseau dans un graphe, avec source-destination des flux de données connectées par des lignes (des liens) et de nœuds (les villes), avec chaque lien obtient une bande passante.
Des probabilités de défaillance ont été obtenus par la vérification de la qualité du signal de tous les liens, toutes les 15 minutes. Si la qualité du signal jamais descendue au-dessous de recevoir, seuil, ils ont considéré qu’un problème de lien. Tout ce qui précède signifie que le lien est en place et en cours d’exécution. À partir de là, le modèle a généré une moyenne de temps que chaque lien est en haut ou en bas, et calculé une probabilité de défaillance ou de “risque” — pour chaque lien à chaque 15 minutes. À partir de ces données, il a été en mesure de prédire le moment où risqué liens échoue à toute fenêtre de temps.
Les chercheurs ont testé le modèle par rapport à d’autres TE logiciel sur des simulations de trafic envoyé par le biais de réseaux de Google, IBM, ATT, et d’autres qui se propagent à travers le monde. Les chercheurs ont créé des divers scénarios d’échec en fonction de leur probabilité d’occurrence. Ensuite, ils ont envoyé simulées et des données réelles demandes à travers le réseau et indicé leurs modèles pour démarrer l’allocation de la bande passante.
Des chercheurs de ce modèle gardé fiable des liens de travail à proximité de la pleine capacité, tandis que les données de direction claire de plus en plus risqué de liens. Sur les approches traditionnelles, leur modèle a couru trois fois plus de données à travers le réseau, tout en veillant à ce que toutes les données arrivés à destination. Le code est librement disponible sur GitHub.