Virtual Private Cloud qui permet de créer un tunnel IPsec (authentification des deux extrémités et cryptage des informations véhiculées) entre un data center Amazon et votre SI interne. Selon Amazon, le surcoût de bande passante lié à ces besoins de cryptage et encapsulation est d'environ 7%.
source : http://aws.amazon.com/
Ce service nécessite un routeur supportant des fonctionnalités avancées. Par exemple, on peut citer : le support du protocole IKE (Internet Key Exchange) pour l'échange d'attributs de sécurité liés à la mise en place du VPN, ou encore le BGP (Border Gateway Protocol) Peering pour la définition des routes entre le data center Amazon et votre infrastructure - des notions bien éloignées des fonctions routeur offertes par une Freebox par exemple !
Le gros avantage de l'utilisation de tunnels IPsec, outre la transparence pour les applications, est que coté Amazon, les VMs ne sont pas accessibles de manière publique mais uniquement par le pont VPN. Coté inconvénient, la mise en place d'un VPN peut demander une réorganisation certaine de l'architecture réseau (règles de filtrage, création de sous-réseaux, nouvelle répartition des bande passantes...).
Actuellement, le service VPC est en béta, ce qui génère les limitations suivantes:
A la base de chaque VM, il y a une image - Amazon Machine Image (AMI). Alors la question se pose : si une entreprise est amenée à déployer une centaine ou plus de VM, comment doit elle gérer les AMI à la base des VMs ?
Amazon avance 3 options : l'inventaire d'AMIs, l'AMI faible couplage et la "Just-Enough OS AMI".
L'inventaire d'AMIs est la première approche. A un "type" de VM est associé une AMI : OS, stack technique et code sont figés. Plusieurs VM peuvent être lancées à partir de la même image, mais supposez que vous ayez une VM "serveur d'applications" et une seconde VM "serveur de bases de données" : vous aurez deux AMI distinctes. Au fur et à mesure de ses expériences avec le cloud Amazon, une entreprise va accroitre la diversité des VM qu'elle instancie et par conséquent le nombre d'AMI qu'elle a à gérer. Les problèmes se manifesteront lors de mises à jour : si vous devez appliquer un patch sur l'OS qui est utilisé par une dizaine d'AMI, vous devrez recréer la dizaine d'AMI une fois les mises à jour faites. Il en va de même de la stack technique voire du code source !
La seconde approche consiste à introduire un découplage entre l'image d'une VM et son état final. L'applicatif est maintenant chargé au démarrage de la VM : une AMI qui contient un serveur d'applications ira télécharger ses archives JEE sur un emplacement établi à l'avance (S3, serveur de gestion de configuration ...). Avec ce schéma, nous évitons ainsi de démultiplier les types d'AMIs. Pour des applications JAVA, ce mécanisme passe simplement par une commande maven appelée au démarrage pour récupérer des artefacts depuis un repository interne à l'entreprise. Dans le cas d'autres technologies on peut penser récupérer l'applicatif sur un serveur de configurations (par exemple un export SVN) ou encore un simple téléchargement HTTP (wget).
Pour terminer, la troisième solution consiste à créer des AMI ne contenant que l'OS et l'environnement nécessaire pour utiliser un outil de configuration automatisé du type Chef, Puppet, CFEngine.Lors du lancement de la VM, un paramètre lui indiquera quelle doit être sa configuration (listes de frameworks nécessaires, code applicatif,...) et la VM se configurera à l'aide de scripts fournis par l'outil de configuration.
La migration des licences peut se faire de trois manières distinctes :
Plusieurs acteurs de cloud public peuvent intervenir au sein d'un même cloud hybride. Les raisons peuvent être diverses :
Cependant chaque plateforme a ses spécificités, ses services propres, ses APIs propriétaires et les réponses possibles présentées dans cet article, qui sont basées sur AWS ne s'appliquent pas toutes à d'autres offres IaaS, et réciproquement.
Même si certaines initiatives de partenariats (entre VMWare et Google par exemple) vont dans le sens du développement de standards, nous sommes loin d'offres et d'api communs. Par conséquent, la multiplicité des offres utilisées impliquent une multiplicité des compétences en interne et une adhérence (à relativiser tout de même) aux fournisseurs de Cloud. Idéalement, on préférera limiter le nombre d'offres utilisées, en privilégiant les partenaires susceptibles de répondre aux besoins futurs, en termes de services et de garanties.