La vérité effrayante sur les droits d’auteur de l’IA est que personne ne sait ce qui se passera ensuite.

L’année dernière, on a assisté à un boom des modèles d’IA qui créent de l’art, de la musique et du code en apprenant du travail des autres. Mais à mesure que ces outils prennent de l’importance, des questions juridiques sans réponse pourraient façonner l’avenir du domaine.

L’IA générative a connu une très bonne année. Des entreprises comme Microsoft, Adobe et GitHub intègrent cette technologie dans leurs produits ; des start-ups lèvent des centaines de millions de dollars pour les concurrencer ; et le logiciel a même une influence culturelle, les modèles d’IA de texte à image ayant donné naissance à d’innombrables mèmes. Mais écoutez n’importe quelle discussion industrielle sur l’IA générative et vous entendrez, en arrière-plan, une question chuchotée par les défenseurs et les critiques sur un ton de plus en plus inquiet : tout cela est-il vraiment légal ?

La question se pose en raison de la manière dont les systèmes d’IA générative sont formés. Comme la plupart des logiciels d’apprentissage automatique, ils fonctionnent en identifiant et en reproduisant des modèles dans les données. Mais comme ces programmes sont utilisés pour générer du code, du texte, de la musique et de l’art, ces données sont elles-mêmes créées par des humains, extraites du web et protégées par le droit d’auteur d’une manière ou d’une autre.

Pour les chercheurs en IA du lointain passé brumeux (alias les années 2010), ce n’était pas vraiment un problème. À l’époque, les modèles de pointe étaient uniquement capables de générer des images de visages en noir et blanc, floues et de la taille d’un ongle. Ce n’était pas une menace évidente pour les humains. Mais en 2022, alors qu’un amateur isolé peut utiliser un logiciel comme Stable Diffusion pour copier le style d’un artiste en quelques heures ou que des entreprises vendent des impressions générées par l’IA et des filtres de médias sociaux qui sont des copies explicites de designers vivants, les questions de légalité et d’éthique sont devenues beaucoup plus pressantes.

Les modèles d’IA générative sont formés sur des données protégées par le droit d’auteur – est-ce légal ?

Prenons le cas de Hollie Mengert, une illustratrice de Disney qui a découvert que son style artistique avait été cloné dans le cadre d’une expérience d’IA par un étudiant en génie mécanique au Canada. L’étudiant a téléchargé 32 des œuvres de Mengert et a pris quelques heures pour former un modèle d’apprentissage automatique capable de reproduire son style. Comme l’a dit Mengert au technologue Andy Baio, qui a rapporté l’affaire : « Pour moi, personnellement, j’ai l’impression que quelqu’un prend le travail que j’ai fait, vous savez, les choses que j’ai apprises – je suis une artiste qui travaille depuis que j’ai obtenu mon diplôme d’école d’art en 2011 – et l’utilise pour créer un art que [sic] je n’ai pas consenti et auquel je n’ai pas donné la permission. »

Mais est-ce juste ? Et Mengert peut-il y faire quelque chose ?

Pour répondre à ces questions et comprendre le paysage juridique entourant l’IA générative, The Verge a parlé à un éventail d’experts, notamment des avocats, des analystes et des employés de startups d’IA. Certains ont déclaré avec confiance que ces systèmes étaient certainement capables de violer des droits d’auteur et pourraient faire face à de sérieux défis juridiques dans un avenir proche. D’autres ont suggéré, tout aussi confiants, que le contraire était vrai : que tout ce qui se passe actuellement dans le domaine de l’IA générative est juridiquement irréprochable et que toute poursuite judiciaire est vouée à l’échec.

« Je vois des gens des deux côtés extrêmement confiants dans leurs positions, mais la réalité est que personne ne sait », a déclaré à The Verge M. Baio, qui a suivi de près la scène de l’IA générative. « Et quiconque affirme savoir avec certitude comment cela va se passer au tribunal se trompe. »

Andres Guadamuz, un universitaire spécialisé dans l’IA et le droit de la propriété intellectuelle à l’université britannique du Sussex, a suggéré que, si les inconnues sont nombreuses, il y a aussi quelques questions clés à partir desquelles se déploient les nombreuses incertitudes du sujet. Premièrement, peut-on protéger par le droit d’auteur les résultats d’un modèle d’IA générative et, dans l’affirmative, qui en est le propriétaire ? Deuxièmement, si vous possédez le droit d’auteur sur les données d’entrée utilisées pour entraîner une IA, cela vous donne-t-il un droit légal sur le modèle ou le contenu qu’il crée ? Une fois que l’on a répondu à ces questions, une question encore plus importante se pose : comment gérer les retombées de cette technologie ? Quel type de restrictions juridiques pourrait – ou devrait – être mis en place pour la collecte de données ? Et peut-il y avoir une paix entre les personnes qui construisent ces systèmes et celles dont les données sont nécessaires pour les créer ?

Prenons ces questions une par une.

La question de la sortie : pouvez-vous faire un copyright sur ce que crée un modèle d’IA ?

Pour la première question, du moins, la réponse n’est pas trop difficile. Aux États-Unis, il n’existe pas de protection par le droit d’auteur pour les œuvres générées uniquement par une machine. Toutefois, il semble que le droit d’auteur soit possible dans les cas où le créateur peut prouver qu’il y a eu un apport humain substantiel.

En septembre, l’Office américain du droit d’auteur a accordé un enregistrement, le premier du genre, pour une bande dessinée générée à l’aide de l’IA texte-image Midjourney. La bande dessinée est une œuvre complète : un récit de 18 pages avec des personnages, des dialogues et une mise en page traditionnelle de bande dessinée. Et bien qu’il ait été rapporté depuis que l’USCO revoit sa décision, l’enregistrement du droit d’auteur de la bande dessinée n’a pas encore été annulé. Il semble que l’un des facteurs de cette révision sera le degré d’implication humaine dans la réalisation de la bande dessinée. Kristina Kashtanova, l’artiste qui a créé l’œuvre, a déclaré à IPWatchdog que l’USCO lui avait demandé « de fournir des détails sur mon processus afin de montrer qu’il y avait une implication humaine substantielle dans le processus de création de ce roman graphique. » (L’USCO lui-même ne fait pas de commentaires sur des cas spécifiques).

Selon M. Guadamuz, il s’agira d’un problème permanent lorsqu’il s’agira d’accorder des droits d’auteur pour des œuvres générées à l’aide de l’IA. « Si vous tapez simplement « chat de van Gogh », je ne pense pas que cela suffise pour obtenir un droit d’auteur aux États-Unis », dit-il. « Mais si vous commencez à expérimenter avec des invites et produisez plusieurs images et commencez à affiner vos images, commencez à utiliser des graines, et commencez à faire un peu plus d’ingénierie, je peux tout à fait voir que cela soit protégé par le droit d’auteur. »

Le droit d’auteur sur les résultats d’un modèle d’IA dépendra probablement du degré d’implication humaine.

En gardant cette rubrique à l’esprit, il est probable que la grande majorité des résultats des modèles d’IA générative ne puissent être protégés par le droit d’auteur. Ils sont généralement produits en masse, avec quelques mots-clés comme déclencheur. Mais des processus plus complexes constitueraient de meilleurs cas. Il peut s’agir d’œuvres controversées, comme cette gravure générée par l’IA qui a remporté un concours national d’art. Dans ce cas, le créateur a déclaré avoir passé des semaines à peaufiner ses invites et à modifier manuellement la pièce finie, ce qui suggère un degré relativement élevé d’implication intellectuelle.

Giorgio Franceschelli, un informaticien qui a écrit sur les problèmes liés aux droits d’auteur de l’IA, estime que la mesure de l’apport humain sera « particulièrement vraie » pour décider des affaires dans l’UE. Au Royaume-Uni, l’autre grande juridiction qui préoccupe les start-ups occidentales de l’IA, la loi est encore différente. Fait inhabituel, le Royaume-Uni est l’une des rares nations à offrir des droits d’auteur pour les œuvres générées uniquement par un ordinateur, mais il considère que l’auteur est « la personne par laquelle les dispositions nécessaires à la création de l’œuvre sont prises ». Là encore, il y a place pour de multiples lectures (cette « personne » serait-elle le développeur du modèle ou son opérateur ?), mais elle offre un précédent pour l’octroi d’une certaine forme de protection du droit d’auteur.

En fin de compte, cependant, l’enregistrement du droit d’auteur n’est qu’une première étape, met en garde M. Guadamuz. « Le bureau américain du droit d’auteur n’est pas un tribunal », dit-il. « Vous avez besoin de l’enregistrement si vous voulez poursuivre quelqu’un pour violation du droit d’auteur, mais ce sera un tribunal qui décidera si oui ou non cela est légalement exécutoire. »

La question de l’entrée : peut-on utiliser des données protégées par le droit d’auteur pour entraîner des modèles d’IA ?

Pour la plupart des experts, les plus grandes questions concernant l’IA et le droit d’auteur concernent les données utilisées pour entraîner ces modèles. La plupart des systèmes sont formés sur d’énormes quantités de contenu extraites du web, qu’il s’agisse de texte, de code ou d’images. L’ensemble de données d’entraînement de Stable Diffusion, par exemple, l’un des systèmes de conversion de texte en IA les plus importants et les plus influents, contient des milliards d’images extraites de centaines de domaines, allant de blogs personnels hébergés sur WordPress et Blogspot à des plateformes artistiques comme DeviantArt et des sites d’images de stock comme Shutterstock et Getty Images. En effet, les ensembles de données d’entraînement pour l’IA générative sont si vastes qu’il y a de fortes chances que vous vous trouviez déjà dans l’un d’eux (il existe même un site web où vous pouvez vérifier en téléchargeant une photo ou en recherchant un texte).

La justification utilisée par les chercheurs en IA, les startups et les entreprises technologiques multimilliardaires est que l’utilisation de ces images est couverte (aux États-Unis, du moins) par la doctrine de l’usage loyal, qui vise à encourager l’utilisation d’œuvres protégées par le droit d’auteur pour promouvoir la liberté d’expression.

Pour déterminer s’il s’agit d’un usage loyal, il faut tenir compte d’un certain nombre de facteurs, explique Daniel Gervais, professeur à la Vanderbilt Law School, spécialisé dans le droit de la propriété intellectuelle et qui a beaucoup écrit sur les interactions entre ce droit et l’IA. Deux facteurs, cependant, ont « beaucoup, beaucoup plus d’importance », dit-il. « Quel est l’objectif ou la nature de l’utilisation et quel est l’impact sur le marché ? En d’autres termes, le cas d’utilisation change-t-il la nature du matériel d’une manière ou d’une autre (généralement décrit comme une utilisation « transformative »), et menace-t-il le gagne-pain du créateur original en faisant concurrence à ses œuvres ?

L’apprentissage d’une IA générative sur des données protégées par le droit d’auteur est probablement légal, mais vous pourriez utiliser ce même modèle de manière illégale.

Compte tenu de l’importance de ces facteurs, M. Gervais estime qu' »il est beaucoup plus probable qu’improbable » que la formation de systèmes sur des données protégées par le droit d’auteur soit couverte par l’usage loyal. Mais il n’en va pas nécessairement de même pour la génération de contenu. En d’autres termes, vous pouvez former un modèle d’intelligence artificielle en utilisant les données d’autres personnes, mais ce que vous faites avec ce modèle peut constituer une infraction. Imaginez la différence entre fabriquer de la fausse monnaie pour un film et essayer d’acheter une voiture avec.

Considérez le même modèle d’IA texte-image déployé dans différents scénarios. Si le modèle est entraîné sur plusieurs millions d’images et utilisé pour générer de nouvelles images, il est extrêmement peu probable que cela constitue une violation du droit d’auteur. Les données d’apprentissage ont été transformées au cours du processus, et le résultat ne menace pas le marché de l’art original. Mais si vous affinez ce modèle sur 100 images d’un artiste spécifique et que vous générez des images qui correspondent à son style, un artiste mécontent aura beaucoup plus de poids contre vous.

Si vous donnez à une IA 10 romans de Stephen King et que vous lui dites : « Produisez un roman de Stephen King », vous entrez directement en concurrence avec Stephen King. S’agirait-il d’un usage loyal ? Probablement pas », répond M. Gervais.

Cependant, entre ces deux pôles d’utilisation équitable et déloyale, il existe d’innombrables scénarios dans lesquels l’entrée, le but et la sortie sont tous équilibrés différemment et pourraient faire pencher toute décision juridique dans un sens ou dans l’autre.

Ryan Khurana, chef du personnel de la société d’IA générative Wombo, affirme que la plupart des entreprises qui vendent ces services sont conscientes de ces différences. « Utiliser intentionnellement des invites qui s’inspirent d’œuvres protégées par le droit d’auteur pour générer un résultat […] viole les conditions de service de tous les acteurs majeurs », a-t-il déclaré à The Verge par courriel. Mais, ajoute-t-il, « l’application de la loi est difficile » et les entreprises sont plus intéressées à « trouver des moyens d’empêcher l’utilisation des modèles de manière à violer les droits d’auteur […] que de limiter les données d’entraînement. » C’est particulièrement vrai pour les modèles texte-image open-source comme Stable Diffusion, qui peuvent être formés et utilisés avec zéro surveillance ou filtre. L’entreprise peut avoir couvert ses arrières, mais elle peut aussi faciliter les utilisations portant atteinte au droit d’auteur.

Une autre variable pour juger de l’usage loyal est de savoir si les données d’entraînement et le modèle ont été créés par des chercheurs universitaires et des organisations à but non lucratif. Cela renforce généralement les défenses contre l’usage loyal et les startups le savent. Ainsi, par exemple, Stability AI, la société qui distribue Stable Diffusion, n’a pas directement collecté les données d’entraînement du modèle ou formé les modèles derrière le logiciel. Au lieu de cela, elle a financé et coordonné ce travail effectué par des universitaires, et le modèle Stable Diffusion est sous licence d’une université allemande. Cela permet à Stability AI de transformer le modèle en un service commercial (DreamStudio) tout en gardant une distance juridique par rapport à sa création.

Baio a surnommé cette pratique « blanchiment de données d’IA ». Il note que cette méthode a déjà été utilisée pour la création de logiciels d’IA de reconnaissance faciale, et cite le cas de MegaFace, un ensemble de données compilé par des chercheurs de l’Université de Washington en raclant des photos de Flickr. « Les chercheurs universitaires ont pris les données, les ont blanchies et les ont utilisées par des entreprises commerciales », explique M. Baio. Aujourd’hui, dit-il, ces données – dont des millions de photos personnelles – sont entre les mains de « [l’entreprise de reconnaissance faciale] Clearview AI, des forces de l’ordre et du gouvernement chinois. » Un tel processus de blanchiment, qui a fait ses preuves, contribuera probablement à protéger les créateurs de modèles d’IA générative de toute responsabilité.

Il y a cependant un dernier rebondissement dans tout cela, car M. Gervais note que l’interprétation actuelle de l’usage loyal pourrait changer dans les mois à venir en raison d’une affaire pendante devant la Cour suprême impliquant Andy Warhol et Prince. L’affaire concerne l’utilisation par Warhol de photographies de Prince pour créer des œuvres d’art. S’agit-il d’un usage loyal ou d’une violation du droit d’auteur ?

« La Cour suprême ne se prononce pas très souvent sur l’usage loyal, et lorsqu’elle le fait, elle prend généralement une décision importante. Je pense qu’elle va faire la même chose ici », dit Gervais. « Et dire que n’importe quoi est une loi établie en attendant que la Cour suprême change la loi est risqué ».

Comment les artistes et les entreprises d’IA peuvent-ils faire la paix ?

Même s’il s’avère que la formation de modèles génératifs d’IA est couverte par l’usage loyal, cela ne résoudra guère les problèmes du domaine. Cela n’apaisera pas les artistes en colère que leur travail ait été utilisé pour former des modèles commerciaux, et cela ne sera pas nécessairement valable pour d’autres domaines de l’IA générative, comme le code et la musique. Dans cette optique, la question qui se pose est la suivante : quels remèdes peut-on introduire, techniques ou autres, pour permettre à l’IA générative de se développer tout en accordant un crédit ou une compensation aux créateurs dont le travail rend ce domaine possible ?

La suggestion la plus évidente est d’accorder une licence pour les données et de rémunérer leurs créateurs. Pour certains, cependant, cela tuerait le secteur. Bryan Casey et Mark Lemley, auteurs de « Fair Learning », un document juridique qui est devenu l’épine dorsale des arguments en faveur de l’utilisation équitable de l’IA générative, affirment que les ensembles de données d’entraînement sont si volumineux qu' »il n’y a pas d’option plausible pour simplement accorder une licence à toutes les photographies, vidéos, fichiers audio ou textes sous-jacents pour la nouvelle utilisation ». Autoriser toute revendication de droits d’auteur, affirment-ils, « revient à dire, non pas que les titulaires de droits d’auteur seront payés, mais que l’utilisation ne sera pas du tout autorisée ». Permettre « l’apprentissage équitable », comme ils le présentent, non seulement encourage l’innovation mais permet aussi le développement de meilleurs systèmes d’IA.

D’autres, cependant, soulignent que nous avons déjà navigué sur des questions de droit d’auteur d’une ampleur et d’une complexité comparables et que nous pouvons le faire à nouveau. Une comparaison invoquée par plusieurs experts auxquels The Verge a parlé est l’ère du piratage de la musique, lorsque les programmes de partage de fichiers ont été construits sur le dos d’une violation massive des droits d’auteur et n’ont prospéré que jusqu’à ce que des contestations juridiques conduisent à de nouveaux accords respectant les droits d’auteur.

« Ainsi, au début des années 2000, vous aviez Napster, que tout le monde adorait mais qui était totalement illégal. Et aujourd’hui, nous avons des choses comme Spotify et iTunes », a déclaré au début du mois à The Verge Matthew Butterick, un avocat qui poursuit actuellement des entreprises pour avoir raclé des données afin d’entraîner des modèles d’IA. « Et comment ces systèmes sont-ils apparus ? Par des entreprises concluant des accords de licence et apportant du contenu de manière légitime. Toutes les parties prenantes sont venues à la table et ont fait en sorte que cela fonctionne, et l’idée qu’une chose similaire ne puisse pas se produire pour l’IA est, pour moi, un peu catastrophique. »

Les entreprises et les chercheurs expérimentent déjà des moyens de compenser les créateurs.

Ryan Khurana, de Wombo, a prédit un résultat similaire. « La musique a de loin les règles de droit d’auteur les plus complexes en raison des différents types de licences, de la variété des titulaires de droits et des divers intermédiaires impliqués », a-t-il déclaré à The Verge. « Étant donné les nuances [des questions juridiques entourant l’IA], je pense que l’ensemble du domaine génératif évoluera vers un régime de licences similaire à celui de la musique. »

D’autres alternatives sont également à l’essai. Shutterstock, par exemple, prévoit de créer un fonds pour dédommager les personnes dont le travail a été vendu à des sociétés d’IA pour qu’elles entraînent leurs modèles, tandis que DeviantArt a créé une balise de métadonnées pour les images partagées sur le web qui avertit les chercheurs en IA de ne pas gratter leur contenu. DeviantArt a quant à lui créé une balise de métadonnées pour les images partagées sur le web, qui avertit les chercheurs en IA de ne pas gratter leur contenu. (Au moins un petit réseau social, Cohost, a déjà adopté cette balise sur son site et déclare que s’il constate que des chercheurs grattent ses images, il « n’exclut pas une action en justice »). Ces approches ont toutefois suscité des réactions mitigées de la part des communautés artistiques. Les droits de licence uniques peuvent-ils jamais compenser la perte d’un gagne-pain ? Et comment une balise anti-scraping déployée aujourd’hui peut-elle aider les artistes dont le travail a déjà été utilisé pour entraîner un système d’IA commercial ?

Pour de nombreux créateurs, il semble que le mal soit déjà fait. Mais les startups de l’IA suggèrent au moins de nouvelles approches pour l’avenir. Un pas en avant évident serait que les chercheurs en IA créent simplement des bases de données où il n’y a aucune possibilité de violation du droit d’auteur – soit parce que le matériel a été correctement licencié, soit parce qu’il a été créé dans le but spécifique d’entraîner l’IA. C’est le cas de « The Stack », un ensemble de données pour l’entraînement de l’IA conçu pour éviter toute accusation de violation du droit d’auteur. Il ne comprend que du code dont la licence open source est la plus permissive possible et offre aux développeurs un moyen facile de retirer leurs données sur demande. Ses créateurs affirment que leur modèle pourrait être utilisé dans toute l’industrie.

« L’approche de The Stack peut absolument être adaptée à d’autres médias », a déclaré à The Verge Yacine Jernite, responsable de l’apprentissage automatique et de la société chez Hugging Face, qui a contribué à créer The Stack en collaboration avec son partenaire ServiceNow. « C’est une première étape importante dans l’exploration du large éventail de mécanismes qui existent pour le consentement – des mécanismes qui fonctionnent au mieux lorsqu’ils prennent en compte les règles de la plateforme dont les données d’entraînement de l’IA ont été extraites. » Jernite dit que Hugging Face veut aider à créer un « changement fondamental » dans la façon dont les créateurs sont traités par les chercheurs en IA. Mais jusqu’à présent, l’approche de l’entreprise reste une rareté.

Que se passera-t-il ensuite ?

Quelle que soit l’issue de ces questions juridiques, les différents acteurs du domaine de l’IA générative se préparent déjà à… quelque chose. Les entreprises qui gagnent des millions grâce à cette technologie se retranchent : elles déclarent sans cesse que tout ce qu’elles font est légal (tout en espérant sans doute que personne ne remettra en cause cette affirmation). De l’autre côté du no man’s land, les détenteurs de droits d’auteur adoptent des positions provisoires sans pour autant s’engager dans l’action. Getty Images a récemment interdit le contenu AI en raison du risque juridique potentiel pour les clients (« Je ne pense pas que ce soit responsable. Je pense que cela pourrait être illégal », a déclaré le PDG Craig Peters à The Verge le mois dernier), tandis que l’organisation commerciale de l’industrie de la musique RIAA a déclaré que les mixeurs et extracteurs de musique alimentés par l’IA enfreignaient les droits d’auteur de ses membres (sans toutefois aller jusqu’à lancer de véritables poursuites judiciaires).

Le premier coup de feu dans la guerre des droits d’auteur de l’IA a déjà été tiré, avec le lancement la semaine dernière d’une proposition de recours collectif contre Microsoft, GitHub et OpenAI. L’affaire accuse les trois entreprises de reproduire sciemment du code open-source par le biais de l’assistant de codage IA, Copilot, mais sans les licences appropriées. S’adressant à The Verge la semaine dernière, les avocats à l’origine de la poursuite ont déclaré qu’elle pourrait créer un précédent pour l’ensemble du domaine de l’IA générative (bien que d’autres experts aient contesté cette affirmation, affirmant que toute contestation du droit d’auteur concernant le code serait probablement distincte de celles concernant des contenus tels que l’art et la musique).

« Une fois que quelqu’un aura brisé la couverture, cependant, je pense que les poursuites judiciaires vont commencer à voler à gauche et à droite ».

Guadamuz et Baio, quant à eux, se disent tous deux surpris qu’il n’y ait pas encore eu plus de contestations judiciaires. « Honnêtement, je suis sidéré », dit Guadamuz. « Mais je pense que c’est en partie parce que ces industries ont peur d’être le premier [à intenter un procès] et de perdre une décision. Mais dès que quelqu’un se met à nu, je pense que les procès vont commencer à fuser de toutes parts. »

Baio a suggéré qu’une des difficultés est que de nombreuses personnes les plus touchées par cette technologie – les artistes et autres – ne sont tout simplement pas en bonne position pour lancer des défis juridiques. « Ils n’ont pas les ressources nécessaires », dit-il. « Ce type de litige est très coûteux et prend beaucoup de temps, et vous ne le ferez que si vous savez que vous allez gagner. C’est pourquoi je pense depuis un certain temps que les premières actions en justice concernant l’art de l’IA proviendront des sites de stockage d’images. Ce sont eux qui semblent être les plus perdants de cette technologie, ils peuvent clairement prouver qu’une grande partie de leur corpus a été utilisée pour former ces modèles, et ils ont les moyens de porter l’affaire en justice. »

Guadamuz est d’accord. « Tout le monde sait à quel point cela va être cher », dit-il. « Quiconque intente un procès obtiendra une décision dans les tribunaux de première instance, puis il fera appel, puis il fera à nouveau appel, et finalement, cela pourrait aller jusqu’à la Cour suprême. »

image ia dall-e

image créée par Dall-E – intelligence artificielle créatrice à partir de mots

SEO INSIDE est une agence de référencement naturel (notamment…).

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.