Un historique de l’internet

Internet, une architecture de système qui a révolutionné les communications et les méthodes de commerce en permettant l’interconnexion de divers réseaux informatiques à travers le monde. Parfois appelé «réseau de réseaux», Internet est apparu aux États-Unis dans les années 1970 mais n’est devenu visible au grand public qu’au début des années 1990. En 2020, environ 4,5 milliards de personnes, soit plus de la moitié de la population mondiale, auraient accès à Internet.

L’Internet offre une capacité si puissante et générale qu’elle peut être utilisée à presque toutes les fins qui dépendent des informations, et elle est accessible à chaque individu qui se connecte à l’un de ses réseaux constitutifs. Il prend en charge la communication humaine via les médias sociaux, le courrier électronique (e-mail), les «bavardoirs», les groupes de discussion et la transmission audio et vidéo et permet aux gens de travailler en collaboration à de nombreux endroits différents. Il prend en charge l’accès aux informations numériques par de nombreuses applications, y compris le World Wide La toile. Internet s’est avéré être un terrain fertile pour un nombre important et croissant de «e-business» (y compris les filiales de sociétés traditionnelles de «brique et de mortier») qui effectuent la plupart de leurs ventes et services sur Internet. (Voir commerce électronique.)

Origine et développement de l’Internet

Les premiers réseaux

Les premiers réseaux informatiques étaient des systèmes spéciaux dédiés tels que SABRE (un système de réservation de ligne aérienne) et AUTODIN I (un système de commandement et de contrôle de la défense), tous deux conçus et mis en œuvre à la fin des années 50 et au début des années 60. Au début des années 60, les fabricants d’ordinateurs avaient commencé à utiliser la technologie des semi-conducteurs dans les produits commerciaux, et des systèmes conventionnels de traitement par lots et de partage du temps étaient en place dans de nombreuses grandes entreprises technologiquement avancées. Les systèmes de partage du temps ont permis de partager les ressources d’un ordinateur en succession rapide avec plusieurs utilisateurs, parcourant la file d’attente des utilisateurs si rapidement que l’ordinateur semblait dédié aux tâches de chaque utilisateur malgré la l’existence de nombreuses autres personnes accédant au système «simultanément». Cela a conduit à l’idée de partager les ressources informatiques (appelées ordinateurs hôtes ou simplement hôtes) sur un réseau entier. Des interactions d’hôte à hôte ont été envisagées, ainsi qu’un accès à des ressources spécialisées (telles que des superordinateurs et des systèmes de stockage de masse) et un accès interactif par des utilisateurs distants aux pouvoirs de calcul de systèmes de partage de temps situés ailleurs. Ces idées ont d’abord été réalisées dans ARPANET, qui a établi la première connexion réseau hôte à hôte le 29 octobre 1969. Elle a été créée par l’Advanced Research Projects Agency (ARPA) du département américain de la Défense. ARPANET a été l’un des premiers réseaux informatiques à usage général. Il a connecté des ordinateurs en temps partagé sur des sites de recherche soutenus par le gouvernement, principalement des universités aux États-Unis, et il est rapidement devenu une infrastructure essentielle pour la communauté de la recherche en informatique aux États-Unis. Outils et applications, tels que le simple Le protocole de transfert de messagerie (SMTP, communément appelé e-mail), pour l’envoi de messages courts, et le protocole de transfert de fichiers (FTP), pour des transmissions plus longues, sont rapidement apparus. Afin de réaliser des communications interactives rentables entre les ordinateurs, qui communiquent généralement en courtes rafales de données, ARPANET a utilisé la nouvelle technologie de commutation de paquets. La commutation de paquets prend de gros messages (ou des morceaux de données informatiques) et les divise en morceaux plus petits et gérables (appelés paquets) qui peuvent voyager indépendamment sur tout circuit disponible jusqu’à la destination cible, où les morceaux sont réassemblés. Ainsi, contrairement aux communications vocales traditionnelles, la commutation de paquets ne nécessite pas un seul circuit dédié entre chaque paire d’utilisateurs.

Les réseaux de paquets commerciaux ont été introduits dans les années 1970, mais ils ont été conçus principalement pour fournir un accès efficace aux ordinateurs distants par des terminaux dédiés. En bref, ils ont remplacé les connexions par modem longue distance par des «virtuels» moins chers circuits sur des réseaux de paquets. Aux États-Unis, Telenet et Tymnet étaient deux de ces réseaux de paquets. Aucun des deux n’a pris en charge les communications d’hôte à hôte; dans les années 1970, c’était encore le domaine des réseaux de recherche, et il le restera pendant de nombreuses années.

La DARPA (Defense Advanced Research Projects Agency; anciennement ARPA) a soutenu des initiatives pour les réseaux de paquets au sol et par satellite. Le système radio par paquets au sol fournit un accès mobile aux ressources informatiques, tandis que le réseau par satellite par paquets relie les États-Unis à plusieurs pays européens et permet des connexions avec des régions largement dispersées et éloignées. Avec l’introduction de la radio par paquets, la connexion d’un terminal mobile à un réseau informatique est devenue possible. Cependant, les systèmes de partage du temps étaient alors encore trop volumineux, peu maniables et coûteux pour être mobiles ou même pour exister en dehors d’un environnement informatique à température contrôlée. Il existait donc une forte motivation pour connecter le réseau radio par paquets à ARPANET afin pour permettre aux utilisateurs mobiles disposant de terminaux simples d’accéder aux systèmes de temps partagé pour lesquels ils étaient autorisés. De même, le réseau par satellite par paquets a été utilisé par la DARPA pour relier les États-Unis à des terminaux satellites desservant le Royaume-Uni, la Norvège, l’Allemagne et l’Italie. Ces terminaux devaient cependant être connectés à d’autres réseaux dans les pays européens afin d’atteindre les utilisateurs finaux. Ainsi est apparue la nécessité de connecter le réseau satellite par paquets, ainsi que le réseau radio par paquets, à d’autres réseaux.

Fondation d’Internet

L’Internet résulte de l’effort de connecter différents réseaux de recherche aux États-Unis et en Europe. Tout d’abord, la DARPA a établi un programme pour étudier l’interconnexion de «réseaux hétérogènes». Ce programme, appelé Internetting, était basé sur le nouveau concept de mise en réseau à architecture ouverte, dans lequel les réseaux avec des interfaces standard définies seraient interconnectés par des «passerelles». Une démonstration de travail du concept était prévue. Dans pour que le concept fonctionne, un nouveau protocole devait être conçu et développé; en effet, une architecture système était également nécessaire.

En 1974, Vinton Cerf, puis à l’Université de Stanford en Californie, et cet auteur, puis à la DARPA, ont collaboré à un article qui décrivait pour la première fois un tel protocole et une telle architecture système, à savoir le protocole de contrôle de transmission (TCP), qui permettait différents types de machines. sur des réseaux du monde entier pour acheminer et assembler des paquets de données. TCP, qui comprenait à l’origine le protocole Internet (IP), un mécanisme d’adressage mondial qui permettait aux routeurs d’obtenir les paquets de données vers leur destination finale, a formé la norme TCP / IP, qui a été adoptée par le département américain de la Défense en 1980. Au début Dans les années 80, «l’architecture ouverte» de l’approche TCP / IP a été adoptée et approuvée par de nombreux autres chercheurs et, éventuellement, par des technologues et des hommes d’affaires du monde entier.

Dans les années 80, d’autres organismes gouvernementaux américains étaient fortement impliqués dans le réseautage, notamment National Science Foundation (NSF), le Department of Energy et la National Aeronautics and Space Administration (NASA). Alors que la DARPA avait joué un rôle déterminant dans la création d’une version à petite échelle d’Internet parmi ses chercheurs, la NSF a travaillé avec la DARPA pour élargir l’accès à l’ensemble de la communauté scientifique et universitaire et pour faire de TCP / IP la norme dans tous les réseaux de recherche soutenus par le gouvernement fédéral. En 1985-1986, la NSF a financé les cinq premiers centres de supercalcul à l’Université de Princeton, l’Université de Pittsburgh, l’Université de Californie, San Diego, l’Université de l’Illinois et l’Université Cornell. Dans les années 80, la NSF a également financé le développement et l’exploitation du NSFNET, un réseau national dorsal pour relier ces centres. À la fin des années 80, le réseau fonctionnait à des millions de bits par seconde. NSF a également financé divers réseaux locaux et régionaux à but non lucratif pour connecter d’autres utilisateurs au NSFNET. Quelques réseaux commerciaux ont également vu le jour à la fin des années 80; ils furent bientôt rejoints par d’autres, et le CIX (Commercial Internet Exchange) a été créé pour autoriser le trafic de transit entre les réseaux commerciaux qui, autrement, n’aurait pas été autorisé sur la dorsale NSFNET. En 1995, après un examen approfondi de la situation, NSF a décidé que le soutien de l’infrastructure NSFNET n’était plus nécessaire, car de nombreux fournisseurs commerciaux étaient maintenant désireux et capables de répondre aux besoins de la communauté de la recherche, et son soutien a été retiré. Entre-temps, NSF avait favorisé une collection compétitive de dorsales Internet commerciales connectées les unes aux autres par le biais de points d’accès réseau (NAP).

Depuis l’origine d’Internet au début des années 70, le contrôle de celui-ci est passé de l’administration publique à la participation du secteur privé et, enfin, à la garde privée sous la surveillance et l’abstention du gouvernement. Aujourd’hui, un groupe vaguement structuré de plusieurs milliers de personnes intéressées, connu sous le nom d’Internet Engineering Task Force, participe à un processus de développement de base pour Internet. normes. Les normes Internet sont maintenues par la nonprofit Internet Society, un organisme international dont le siège est à Reston, en Virginie. L’Internet Corporation for Assigned Names and Numbers (ICANN), une autre organisation privée à but non lucratif, supervise divers aspects de la politique concernant les noms de domaine et les numéros Internet.

Expansion commerciale de l’internet

L’essor des services et applications Internet commerciaux a contribué à alimenter une commercialisation rapide d’Internet. Ce phénomène est également le résultat de plusieurs autres facteurs. Un facteur important a été l’introduction de l’ordinateur personnel et de la station de travail au début des années 80 – une évolution qui à son tour a été alimentée par des progrès sans précédent dans la technologie des circuits intégrés et une baisse rapide des prix des ordinateurs. Un autre facteur, qui a pris une importance croissante, a été l’émergence d’Ethernet et d’autres «réseaux locaux» pour relier les ordinateurs personnels. Mais d’autres forces étaient également à l’œuvre. Suite à la restructuration d’AT & T en 1984, NSF a profité de diverses nouvelles options pour les services de dorsale numérique au niveau national pour NSFNET. En 1988, la Corporation for National Research Initiatives a reçu l’autorisation de mener une expérience reliant un service de courrier électronique commercial (MCI Mail) à Internet. Cette application a été la première connexion Internet à un fournisseur commercial qui ne faisait pas également partie de la communauté des chercheurs. L’approbation a rapidement suivi pour permettre à d’autres fournisseurs de messagerie d’accéder à Internet, et Internet a commencé sa première explosion de trafic.

En 1993, la législation fédérale a autorisé NSF à ouvrir la dorsale NSFNET aux utilisateurs commerciaux. Avant cette date, l’utilisation de la dorsale était soumise à une politique «d’utilisation acceptable», établie et administrée par la NSF, en vertu de laquelle l’utilisation commerciale était limitée aux applications qui servaient la communauté des chercheurs. La NSF a reconnu que les services de réseau fournis dans le commerce, maintenant qu’ils étaient disponibles, seraient finalement bien moins chers que le financement continu de services de réseau à usage spécial.

En 1993 également, l’Université de l’Illinois a rendu largement disponible Mosaic, un nouveau type de programme informatique, connu sous le nom de navigateur, qui fonctionnait sur la plupart des types d’ordinateurs et, grâce à son interface «pointer-cliquer», un accès simplifié, une récupération et affichage de fichiers via Internet. Mosaic a incorporé un ensemble de protocoles d’accès et de normes d’affichage initialement développés à l’Organisation européenne pour la recherche nucléaire (CERN) par Tim Berners-Lee pour une nouvelle application Internet appelée World Wide Web (WWW). En 1994, Netscape Communications Corporation (à l’origine appelée Mosaic Communications Corporation) a été créée pour développer davantage le navigateur et le logiciel serveur Mosaic à des fins commerciales. Peu de temps après, le géant des logiciels Microsoft Corporation s’est intéressé à la prise en charge des applications Internet sur les ordinateurs personnels (PC) et a développé son navigateur Web Internet Explorer (basé initialement sur Mosaic) et d’autres programmes. Ces nouveaux commerciaux Les capacités ont accéléré la croissance d’Internet, qui, dès 1988, avait déjà augmenté à un rythme de 100% par an.

À la fin des années 90, il y avait environ 10 000 fournisseurs de services Internet (FSI) dans le monde, dont plus de la moitié aux États-Unis. Cependant, la plupart de ces FAI ne fournissaient qu’un service local et comptaient sur l’accès à des FAI régionaux et nationaux pour une connectivité plus large. La consolidation a commencé à la fin de la décennie, de nombreux fournisseurs de petite à moyenne taille fusionnant ou étant acquis par de plus grands FAI. Parmi ces grands fournisseurs, il y avait des groupes tels que America Online, Inc. (AOL), qui a commencé comme un service d’information par ligne commutée sans connectivité Internet, mais a fait une transition à la fin des années 1990 pour devenir le principal fournisseur de services Internet dans le monde … avec plus de 25 millions d’abonnés en 2000 et avec des succursales en Australie, en Europe, en Amérique du Sud et en Asie. Les «portails» Internet largement utilisés tels que AOL, Yahoo !, Excite et d’autres ont pu commander des frais de publicité en raison du nombre de «globes oculaires» qui ont visité leurs sites. En effet, à la fin des années 1990, les revenus publicitaires sont devenus la principale quête de nombreux sites Internet, dont certains ont commencé à spéculer en proposant des services gratuits ou à bas prix de toutes sortes qui étaient visuellement augmentés de publicités. En 2001, cette bulle spéculative avait éclaté.

Le 21e siècle et les orientations futures

Après l’effondrement de la bulle Internet, est apparue l’émergence de ce que l’on a appelé le «Web 2.0», un Internet mettant l’accent sur les réseaux sociaux et le contenu généré par les utilisateurs, et le cloud computing. Les services de médias sociaux tels que Facebook, Twitter et Instagram sont devenus certains des sites Internet les plus populaires en permettant aux utilisateurs de partager leur propre contenu avec leurs amis et le reste du monde. Les téléphones mobiles ont pu accéder au Web et, avec l’introduction de smartphones comme l’iPhone d’Apple (introduit en 2007), le nombre d’utilisateurs d’Internet dans le monde a explosé, passant d’environ un sixième de la population mondiale en 2005 à plus de la moitié en 2020.

La disponibilité accrue des applications permettant l’accès sans fil qui étaient auparavant non rentables. Par exemple, des systèmes de positionnement mondial (GPS) combinés à un accès Internet sans fil aident les utilisateurs mobiles à localiser d’autres itinéraires, à générer des rapports d’accident précis et à lancer des services de récupération, et à améliorer gestion du trafic et contrôle des encombrements. En plus des smartphones, des ordinateurs portables sans fil et des assistants numériques personnels (PDA), des appareils portables avec entrée vocale et des lunettes spéciales ont été développés.

Si la structure précise du futur Internet n’est pas encore claire, de nombreuses directions de croissance semblent apparentes. L’une est vers des vitesses d’accès plus élevées au réseau principal et au réseau. Des débits de données de base de 100 milliards de bits (100 gigabits) par seconde sont facilement disponibles aujourd’hui, mais des débits de données de 1 billion de bits (1 térabits) par seconde ou plus deviendront éventuellement commercialement réalisables. Si le développement du matériel informatique, des logiciels, des applications et de l’accès local suit le rythme, il peut être possible pour les utilisateurs d’accéder aux réseaux à des vitesses de 100 gigabits par seconde. À de tels débits de données, la vidéo haute résolution – en fait, plusieurs flux vidéo – n’occuperait qu’une petite fraction de la bande passante disponible. La bande passante restante pourrait être utilisée pour transmettre des informations auxiliaires sur les données envoyées, qui à son tour permettrait une personnalisation rapide des affichages et une résolution rapide de certaines requêtes locales. De nombreuses recherches, publiques et privées, ont porté sur les systèmes à large bande intégrés qui peuvent transporter simultanément plusieurs signaux – données, voix et vidéo. En particulier, le gouvernement américain a financé des recherches pour créer de nouvelles capacités de réseau haute vitesse dédiées à la communauté de la recherche scientifique.

Il est clair que la connectivité des communications sera une fonction importante d’un futur Internet, car davantage de machines et d’appareils sont interconnectés. En 1998, après quatre années d’études, l’Internet Engineering Task Force a publié une nouvelle norme d’adresse IP de 128 bits destinée à remplacer la norme conventionnelle de 32 bits. En permettant une forte augmentation du nombre d’adresses disponibles (2128, contre 232), cette norme permet d’attribuer des adresses uniques à presque tous les appareils électroniques imaginables. Ainsi, grâce à «l’Internet des objets», dans lequel toutes les machines et tous les appareils pourrait être connecté à Internet, les expressions «câblé» au bureau, à la maison et en voiture peuvent toutes prendre de nouvelles significations, même si l’accès est vraiment sans fil.

La diffusion de textes numérisés, d’images et d’enregistrements audio et vidéo sur Internet, principalement disponibles aujourd’hui sur le World Wide Web, a provoqué une explosion de l’information. De toute évidence, des outils puissants sont nécessaires pour gérer les informations réseau. Les informations disponibles sur Internet aujourd’hui ne seront peut-être pas disponibles demain sans une attention particulière aux techniques de conservation et d’archivage. La clé pour rendre les informations disponibles en permanence est l’infrastructure et la gestion de cette infrastructure. Des référentiels d’informations, stockés sous forme d’objets numériques, vont bientôt peupler Internet. Au début, ces dépôts peuvent être dominés par des objets numériques spécifiquement créés et formatés pour le World Wide Web, mais avec le temps, ils contiendront des objets de toutes sortes dans des formats qui pourront être résolus dynamiquement par les ordinateurs des utilisateurs en temps réel. Le déplacement d’objets numériques d’un référentiel vers un autre les laissera toujours à la disposition des utilisateurs autorisés à y accéder, tandis que les instances répliquées d’objets dans plusieurs référentiels offriront des alternatives aux utilisateurs qui sont mieux à même d’interagir avec certaines parties d’Internet qu’avec autres. L’information aura sa propre identité et deviendra en effet un «citoyen de première classe» sur Internet.

SEO INSIDE est une agence web.

internet

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.