Simple Enough Blog logo
  • Home 
  • Blog 
    • Technologies et Services 
    • Guide d'apprentissage 
    • Solutions et Tutoriels 
  • Projets 
  • Tags 

  •  Langage
    • English
    • Français
  1.   Blogs
  1. Accueil
  2. Blogs
  3. Un bref historique des architectures AWS

Un bref historique des architectures AWS

Posté le 20 décembre 2024 • 14 min de lecture • 2 789 mots
Aws   Débuter   Helene  
Aws   Débuter   Helene  
Partager via
Simple Enough Blog
Lien copié dans le presse-papier

Initialement conçu pour la plateforme de vente du site Amazon, il faudra plusieurs années avant qu’ AWS ne prenne la direction du cloud.

Sur cette page
I. Les débuts d’ AWS et du Cloud Computing période de 2002 à 2006   Contexte : L’origine du projet AWS   2002 : Premiers services d’Amazon Web Services   2003 - 2004 : L’idée du Cloud Computing prend forme   2006 : AWS est officiellement lancé avec ses premiers services Cloud   Amazon S3 (Simple Storage Service)   Amazon EC2 (Elastic Compute Cloud)   Amazon SQS (Simple Queue Service)   Impact et adoption   Conclusion de la période 2002 - 2006   II. L’essor du Cloud Computing période de 2007 à 2012   Contexte : AWS devient un acteur majeur du cloud   2007 - 2008 : Premiers cas d’usage et extension du stockage   2009 - 2010 : Apparition des bases de données managées et des VPC   2011 - 2012 : L’explosion des services et l’entrée dans l’ère Big Data   Conclusion de la période 2007 - 2012   III. L’évolution vers les architectures modernes période de 2013 à 2017)   Contexte : AWS s’impose comme leader du Cloud   2013 - 2014 : Sécurisation et expansion des services   2015 - 2016 : Boom des microservices et du serverless   2016 - 2017 : L’IA et le Machine Learning entrent en scène   Conclusion de la période 2013 - 2017   IV. Cloud hybride, multi-cloud et Edge Computing période de 2018 à 2022   Contexte : AWS face à une concurrence accrue   2018 - 2019 : Le Cloud devient hybride et les workloads s’ étendent hors d’ AWS   2020 - 2021 : Explosion du Edge Computing et des architectures distribuées   2022 : AWS se tourne vers la durabilité et l’optimisation des coûts   Conclusion de la période 2018 - 2022   V. Cloud hybride, IA et durabilité période actuelle   Contexte : AWS face aux nouveaux défis du cloud   2023 : AWS entre dans la course à l’IA   2024 : Renforcement du cloud souverain et de la sécurité des données   2024 - Aujourd’hui : Optimisation des coûts et innovations en Edge Computing   Conclusion de la période 2023 - Aujourd’hui   Conclusion générale : L’ évolution des architectures AWS (2002 - 2025)  
Un bref historique des architectures AWS
Photo par Helene Hemmerter

I. Les débuts d’ AWS et du Cloud Computing période de 2002 à 2006  

Contexte : L’origine du projet AWS  

Avant même qu’ AWS ne devienne un géant du cloud, Amazon.com (le site e-commerce) devait gérer une infrastructure informatique massive pour supporter sa croissance rapide. L’entreprise avait investi dans des datacenters coûteux et devait prévoir la capacité de serveurs pour gérer les pics de trafic (comme ceux du Black Friday). Cependant, une grande partie de cette capacité restait inutilisée en dehors des périodes de forte demande.

Les équipes d’ Amazon ont alors identifié un problème : les développeurs internes perdaient du temps à gérer les ressources informatiques au lieu de se concentrer sur la création de nouvelles fonctionnalités. Amazon a donc commencé à concevoir une plateforme permettant de fournir des services d’infrastructure sous forme d’API, que ses équipes pourraient utiliser à la demande.

Cette idée a évolué pour devenir un service ouvert aux entreprises externes, permettant à toute organisation d’accéder à des ressources informatiques de manière flexible, sans avoir à investir dans du matériel physique.

2002 : Premiers services d’Amazon Web Services  

Amazon lance discrètement AWS en 2002, mais il ne s’agit pas encore d’un service de cloud computing tel qu’on le connaît aujourd’hui. À cette époque, AWS propose principalement des API Web pour accéder aux données des produits Amazon, comme :

  • AWS SOAP & REST API : Offrant un accès programmatique à certaines fonctionnalités du site Amazon.
  • Alexa Web Information Service : Fournissant des statistiques sur le web et les tendances de recherche.

Ces premiers services ne sont pas encore liés à l’hébergement ou à l’infrastructure, mais ils posent les bases du futur modèle AWS : offrir des services informatiques sous forme d’API accessibles à distance.

2003 - 2004 : L’idée du Cloud Computing prend forme  

À cette période, Amazon continue d’améliorer son infrastructure interne. Ses ingénieurs réalisent que leur plateforme peut être conçue pour héberger et gérer n’importe quelle application, et pas seulement celles d’ Amazon.

Trois concepts clés émergent :

  1. Standardiser les ressources IT : Les serveurs, le stockage et la base de données doivent être accessibles comme des services modulaires.
  2. Automatiser l’ allocation de ressources : Permettre aux développeurs d’obtenir des serveurs à la demande au lieu d’attendre des installations manuelles.
  3. Facturation à l’ usage : Inspiré des services publics (comme l’ électricité), AWS facturerait les entreprises en fonction de leur consommation réelle, au lieu d’ un abonnement fixe.

Amazon décide alors de se lancer pleinement dans cette idée et commence à conçevoir une offre de services cloud destinés aux entreprises.

2006 : AWS est officiellement lancé avec ses premiers services Cloud  

L’ année 2006 marque le véritable lancement d’ AWS en tant que fournisseur de cloud computing. Trois services fondateurs voient le jour :

Amazon S3 (Simple Storage Service)  

  • Service de stockage d’objets évolutif et accessible via API.
  • Permet aux entreprises de stocker et récupérer des fichiers facilement sans gérer de serveurs.
  • Tarif innovant basé sur l’espace utilisé (0,15$/Go à l’époque).

Amazon EC2 (Elastic Compute Cloud)  

  • Service permettant de lancer des machines virtuelles (VM) à la demande.
  • Offre une alternative flexible aux serveurs physiques traditionnels.
  • Permet aux développeurs de louer des serveurs Linux à l’heure et de les arrêter quand ils ne sont plus nécessaires.

Amazon SQS (Simple Queue Service)  

  • Service de messagerie permettant aux applications de communiquer de manière asynchrone.
  • Évite les problèmes de surcharge en répartissant les tâches entre différents serveurs.

Ces services deviennent les piliers du Cloud Computing moderne. Pour la première fois, les entreprises peuvent démarrer des serveurs et stocker des données sans avoir besoin de leur propre infrastructure physique.

Impact et adoption  

AWS révolutionne l’informatique d’entreprise en permettant aux startups et aux développeurs d’accéder à des ressources informatiques de manière élastique.

Netflix, Dropbox, Airbnb et d’autres startups technologiques adoptent rapidement AWS, car il leur permet de croître sans acheter de serveurs physiques. Le modèle de paiement à l’usage est une rupture avec les modèles traditionnels basés sur des abonnements fixes ou des achats de matériel coûteux.

Conclusion de la période 2002 - 2006  

✅ AWS passe d’un simple ensemble d’API pour Amazon à une véritable plateforme cloud qui offre du stockage (S3), de la puissance de calcul (EC2) et une gestion des messages (SQS).

✅ Ce modèle pose les bases du Cloud Computing moderne et amorce une révolution dans la manière dont les entreprises conçoivent leurs infrastructures IT.

II. L’essor du Cloud Computing période de 2007 à 2012  

Contexte : AWS devient un acteur majeur du cloud  

Après son lancement officiel en 2006, AWS commence à se faire un nom dans le monde de l’infrastructure informatique. Les entreprises et startups adoptent progressivement le cloud pour réduire leurs coûts et gagner en flexibilité. AWS se différencie des fournisseurs traditionnels en proposant un modèle pay-as-you-go (paiement à l’usage), ce qui révolutionne l’approche du marché IT.

Cette période est marquée par :

  • L’extension rapide des services AWS
  • L’adoption massive par les startups et les entreprises tech
  • L’émergence des bases de données et du cloud privé

2007 - 2008 : Premiers cas d’usage et extension du stockage  

Netflix commence à utiliser AWS pour héberger ses vidéos en streaming, marquant le début d’un des premiers cas d’usage massifs du cloud. AWS lance Elastic Block Store (EBS) en 2008, permettant aux instances EC2 d’avoir un stockage persistant.

2009 - 2010 : Apparition des bases de données managées et des VPC  

Amazon répond à la demande avec plusieurs nouveaux services :

  • Amazon RDS (2009) : Base de données relationnelle managée.
  • Amazon VPC (2009) : Introduit le concept de cloud privé.
  • AWS CloudFront (2009) : Réseau de distribution de contenu (CDN).

2011 - 2012 : L’explosion des services et l’entrée dans l’ère Big Data  

Amazon lance plusieurs services stratégiques :

  • Amazon DynamoDB (2012) : Base de données NoSQL ultra-scalable.
  • AWS Elastic Beanstalk (2011) : Plateforme PaaS pour le déploiement d’applications.
  • Amazon Redshift (2012) : Solution de data warehouse cloud pour le Big Data.

Conclusion de la période 2007 - 2012  

✅ AWS devient un acteur incontournable grâce à la diversité de ses services.

✅ Les bases de données, les VPC et le Big Data accélèrent l’adoption en entreprise.

✅ Les startups migrent massivement vers AWS, créant des success stories comme Netflix et Airbnb.

III. L’évolution vers les architectures modernes période de 2013 à 2017)  

Contexte : AWS s’impose comme leader du Cloud  

Entre 2013 et 2017, AWS consolide sa position de leader du marché du cloud computing. L’entreprise dépasse ses concurrents (Google Cloud, Microsoft Azure) grâce à une innovation continue et une adoption massive par les entreprises et les startups.

Les grandes tendances de cette période :

  • Explosion des architectures microservices avec les conteneurs et Kubernetes.
  • Développement des services Serverless pour simplifier le déploiement d’ applications.
  • L’IA et le Machine Learning deviennent accessibles via AWS.

2013 - 2014 : Sécurisation et expansion des services  

Amazon continue d’ élargir son offre et d’améliorer la sécurité pour séduire les grandes entreprises et administrations.

Services majeurs de cette période :

  • AWS IAM (Identity and Access Management) - 2013 Gestion avancée des permissions et accès aux ressources AWS. Permet d’établir des rôles et d’appliquer le principe du moindre privilège.
  • AWS KMS (Key Management Service) - 2014 Service de gestion des clés de chiffrement. AWS renforce ainsi la sécurité et la confidentialité des données dans le cloud.
  • Amazon Aurora (2014) - Base de données cloud haute performance Compatible avec MySQL et PostgreSQL. Offre une alternative scalable aux bases de données traditionnelles, avec des performances jusqu’à 5x supérieures à MySQL.

Conséquence : AWS devient une plateforme crédible pour les grandes entreprises et administrations, qui exigent des contrôles stricts sur leurs données.

2015 - 2016 : Boom des microservices et du serverless  

Cette période marque un tournant avec l’ essor des conteneurs et du serverless, qui transforment les architectures cloud.

Services clés :

  • Amazon ECS (Elastic Container Service) - 2015 Service de gestion des conteneurs Docker sur AWS. Permet aux entreprises de déployer des applications microservices sans gérer l’infrastructure sous-jacente.
  • AWS Lambda (2014, officiellement adopté en 2015) - Le début du serverless Exécute du code sans serveur, déclenché par des événements (S3, API Gateway, DynamoDB…). Facturation uniquement pour le temps d’exécution effectif du code. Permet des architectures entièrement événementielles et scalables.
  • Amazon API Gateway (2015) - Gestion des API serverless Facilite la création, le déploiement et la sécurisation d’API. Se combine parfaitement avec AWS Lambda pour créer des backends sans serveur.

Conséquence :

Explosion des architectures Serverless, simplifiant le développement et réduisant les coûts. Adoption massive des microservices, favorisés par les conteneurs et Kubernetes.

2016 - 2017 : L’IA et le Machine Learning entrent en scène  

AWS commence à investir massivement dans l’intelligence artificielle et le Machine Learning.

Services d’IA/ML introduits :

  • Amazon Rekognition (2016) - Analyse d’images et vidéos Détection faciale, reconnaissance d’objets, modération de contenu.
  • Amazon Polly (2016) - Synthèse vocale Convertit du texte en audio avec des voix naturelles.
  • Amazon Lex (2016) - Chatbots et reconnaissance vocale Moteur derrière Alexa, permettant la création d’assistants virtuels.
  • Amazon SageMaker (2017) - Plateforme Machine Learning Permet aux entreprises de créer, entraîner et déployer des modèles IA sans expertise avancée.

Conséquence : AWS devient un acteur clé du Machine Learning, rendant l’ IA accessible à toutes les entreprises.

Conclusion de la période 2013 - 2017  

✅ Les architectures microservices et serverless révolutionnent le cloud.

✅ Les entreprises adoptent massivement les conteneurs (Docker, Kubernetes).

✅ AWS investit dans l’intelligence artificielle et le Machine Learning.

IV. Cloud hybride, multi-cloud et Edge Computing période de 2018 à 2022  

Contexte : AWS face à une concurrence accrue  

Durant cette période, AWS continue de dominer le marché du cloud, mais la concurrence devient plus intense avec Microsoft Azure et Google Cloud qui gagnent du terrain, notamment auprès des grandes entreprises.

Trois grandes tendances émergent :

  • Le cloud hybride et le multi-cloud – Les entreprises veulent combiner AWS avec leurs datacenters et d’autres fournisseurs cloud.
  • Le Edge Computing – AWS déploie des services plus proches des utilisateurs pour améliorer la latence.
  • L’ optimisation des coûts et la durabilité – AWS propose de nouveaux services pour réduire la consommation énergétique et les coûts d’infrastructure.

2018 - 2019 : Le Cloud devient hybride et les workloads s’ étendent hors d’ AWS  

Les grandes entreprises hésitent encore à tout mettre dans le cloud public. AWS répond avec des solutions hybrides pour intégrer le cloud à leurs datacenters.

Services clés :

  • AWS Outposts (2018) – AWS dans les datacenters privés Permet aux entreprises d’ installer du matériel AWS dans leurs propres locaux. Compatible avec EC2, S3 et d’autres services AWS.
  • AWS Transit Gateway (2018) – Réseau multi-cloud et hybride Connecte VPC, datacenters et autres clouds de manière centralisée. Facilite l’ intégration de AWS avec Azure ou Google Cloud.
  • AWS Security Hub (2018) – Sécurité centralisée Unifie les alertes de sécurité sur toutes les ressources AWS.

Conséquence : AWS s’ adapte aux besoins des grandes entreprises en offrant des solutions plus flexibles, intégrées aux datacenters existants.

2020 - 2021 : Explosion du Edge Computing et des architectures distribuées  

Avec l’essor des objets connectés (IoT) et des applications nécessitant une faible latence, AWS introduit des services permettant d’exécuter des workloads plus près des utilisateurs.

Nouveaux services Edge Computing :

  • AWS Wavelength (2020) – AWS dans la 5G Intégré aux réseaux 5G pour réduire la latence à quelques millisecondes. Permet d’héberger des applications en réalité augmentée et IoT au plus proche des utilisateurs.
  • AWS Local Zones (2020) – Des mini-datacenters AWS en ville Déployés dans des grandes villes (Los Angeles, New York, Paris…) pour offrir des performances ultra-rapides.
  • AWS Proton (2020) – Automatisation DevOps Simplifie le déploiement des microservices et conteneurs dans AWS.

Conséquence : AWS devient un acteur clé du Edge Computing et offre une meilleure latence pour les jeux vidéo, le streaming et l’ IoT.

2022 : AWS se tourne vers la durabilité et l’optimisation des coûts  

Face aux critiques sur l’impact environnemental du cloud, AWS lance plusieurs initiatives pour améliorer son efficacité énergétique.

Actions majeures :

  • AWS Graviton (2021-2022) – Processeurs ARM pour réduire la consommation énergétique Jusqu’à 40% plus efficaces que les processeurs Intel/AMD. Utilisés par EC2, Lambda, RDS, réduisant les coûts et l’impact carbone.
  • Amazon Sustainability Data Initiative (2022) – Données sur l’environnement Fournit des datasets gratuits pour aider les entreprises à réduire leur empreinte carbone.
  • AWS Compute Optimizer (2022) – Réduction des coûts cloud Analyse l’usage des ressources et recommande des ajustements pour optimiser les dépenses AWS.

Conséquence : AWS met l’accent sur l’optimisation des performances et la réduction des coûts, tout en s’engageant vers un cloud plus écologique.

Conclusion de la période 2018 - 2022  

✅ AWS adopte le cloud hybride et le multi-cloud pour séduire les grandes entreprises.

✅ Le Edge Computing devient un élément clé, avec AWS Wavelength et Local Zones.

✅ AWS améliore la durabilité et propose des solutions pour réduire les coûts.

V. Cloud hybride, IA et durabilité période actuelle  

Contexte : AWS face aux nouveaux défis du cloud  

Depuis 2023, AWS continue d’innover pour répondre à trois grandes tendances :

  • L’ IA générative et le Machine Learning – Avec l’ essor de ChatGPT et des LLM (Large Language Models), AWS accélère sur l’ IA.
  • Le cloud souverain et la régulation des données – Les gouvernements et entreprises veulent plus de contrôle sur leurs données.
  • L’optimisation des coûts et de la performance – Face à une économie incertaine, AWS propose des solutions plus économiques et écologiques.

2023 : AWS entre dans la course à l’IA  

L’ arrivée de ChatGPT en 2022 a accéléré la compétition sur l’ intelligence artificielle générative. AWS réagit avec Amazon Bedrock et de nouveaux services IA pour rivaliser avec Azure OpenAI et Google Vertex AI.

Services clés :

  • Amazon Bedrock (2023) – L’IA générative chez AWS Permet aux entreprises d’accéder à des modèles IA pré-entraînés (Anthropic Claude, Stability AI, AI21, Amazon Titan). Facilite l’ intégration de l’IA dans les applications sans expertise technique avancée.
  • AWS Trainium & Inferentia2 (2023) – Puces optimisées IA/ML AWS développe ses propres processeurs IA pour accélérer l’entraînement et l’inférence des modèles IA. Alternative aux GPU NVIDIA, pour réduire les coûts et la dépendance aux fournisseurs externes.
  • Amazon Q (2023) – IA conversationnelle pour les entreprises Chatbot spécialisé pour les documents et la gestion du support client. Intégré aux outils AWS pour améliorer la productivité des développeurs et analystes.

Conséquence : AWS devient un acteur clé de l’IA générative, permettant aux entreprises de créer des chatbots et assistants IA sans passer par OpenAI.

2024 : Renforcement du cloud souverain et de la sécurité des données  

Avec l’ augmentation des régulations (RGPD, Data Act européen), AWS développe des solutions de cloud souverain et de protection des données.

Principales initiatives :

  • AWS European Sovereign Cloud (2024) – Un cloud dédié aux données européennes Créé pour se conformer aux régulations européennes strictes (RGPD, Data Act). Hébergé entièrement en Europe, avec des contrôles renforcés sur l’accès aux données.
  • AWS Nitro Enclaves – Sécurisation avancée des données Permet d’ exécuter des environnements isolés pour le traitement de données sensibles. Protection contre les accès non autorisés, même par les administrateurs AWS.

Conséquence : AWS rassure les gouvernements et entreprises européennes en leur garantissant un cloud conforme aux régulations.

2024 - Aujourd’hui : Optimisation des coûts et innovations en Edge Computing  

Avec la montée des préoccupations économiques, AWS optimise ses offres pour aider les entreprises à réduire leurs dépenses cloud.

Nouveaux services et stratégies :

  • AWS Graviton4 (2024) – Encore plus d’efficacité énergétique Nouvelle génération de processeurs ARM pour réduire la consommation énergétique des serveurs. Jusqu’à 40% de performance en plus par rapport à Graviton3.
  • AWS Outposts & Local Zones – Expansion mondiale AWS étend son infrastructure pour réduire la latence et améliorer les performances Edge. Partenariats avec les opérateurs télécoms pour la 5G et l’ IoT.

Conséquence : AWS reste compétitif en proposant des solutions plus performantes et économiques, adaptées aux besoins des entreprises post-COVID.

Conclusion de la période 2023 - Aujourd’hui  

✅ AWS accélère sur l’IA générative avec Bedrock et ses propres puces IA.

✅ Le cloud souverain devient une priorité avec AWS European Sovereign Cloud.

✅ L’optimisation des coûts et le Edge Computing continuent d’évoluer.

Conclusion générale : L’ évolution des architectures AWS (2002 - 2025)  

AWS est passé de simples machines virtuelles (EC2) et stockage (S3) en 2006 à une plateforme cloud ultra-diversifiée avec :

  • Des services serverless et Kubernetes (2014 - 2017).
  • L’Edge Computing et les solutions hybrides (2018 - 2022).
  • L’IA générative et le cloud souverain (2023 - aujourd’hui).

L’avenir d’AWS se jouera sur l’IA, la souveraineté des données et la réduction des coûts énergétiques.

 Démystifier AWS KMS
Apprendre AWS par vous-même ? 10 services à connaître 
  • I. Les débuts d’ AWS et du Cloud Computing période de 2002 à 2006  
  • II. L’essor du Cloud Computing période de 2007 à 2012  
  • III. L’évolution vers les architectures modernes période de 2013 à 2017)  
  • IV. Cloud hybride, multi-cloud et Edge Computing période de 2018 à 2022  
  • V. Cloud hybride, IA et durabilité période actuelle  
  • Conclusion générale : L’ évolution des architectures AWS (2002 - 2025)  
Suivez-nous

Nous travaillons avec vous !

   
Copyright © 2025 Simple Enough Blog Tous droits réservés. | Propulsé par Hinode.
Simple Enough Blog
Code copié dans le presse-papier