Quelle heure pour l’intelligence artificielle! Google a annoncé un nouvel ensemble de produits et services basés sur l’IA lors de sa conférence I / O pour les développeurs, dont un appelé Duplex qui passe des appels téléphoniques pour vous et sonne comme une vraie personne, ce qui a effrayé tout le monde. L’administration Trump a organisé une sorte de sommet sur l’IA avec des représentants d’Amazon, Facebook, Microsoft, Nvidia et le fabricant de beurre Land O’Lakes, probablement parce que la Maison Blanche a tellement de taux de désabonnement. Ajoutez à cela le public révèle que le musicien Grimes et Elon Musk sortent ensemble, après que les deux ont partagé une blague sur l’IA.

Et pourtant, quand les gens me demandent ce que l’entreprise de logiciels que je dirige fait avec l’apprentissage automatique, je dis calmement: «Rien». Parce qu’à un certain niveau, il n’y a rien à faire.

Le point chaud du moment est l’apprentissage automatique, un sous-domaine de l’IA. Dans l’apprentissage automatique, vous prenez régulièrement d’anciennes données (photos, e-mails, chansons) et les exécutez via un logiciel spécialisé. Ce logiciel construit un «modèle». Puisque le modèle encode ce qui précède, c’est prédictif: vous pouvez alimenter le modèle en données incomplètes et il vous proposera des moyens de le compléter. Un exemple trivial: n’importe qui, y compris vous et moi, peut alimenter l’alphabet vers un «réseau neuronal récurrent», ou RNN. Cela fait un modèle de l’alphabet. Maintenant, exécutez ce modèle (peut-être en exécutant un script) et donnez-lui les lettres «ABC». Si votre réseau de neurones spécialement formé passe une bonne journée, il indiquera « D. »

Montez d’un niveau: alimentez votre réseau neuronal d’un million d’images avec des légendes, puis donnez-lui une image sans légende et demandez-lui de remplir la légende manquante. Donnez-lui d’innombrables e-mails avec des réponses, puis montrez-en un sans réponse et demandez-lui quoi dire.

Puisque nous utilisons constamment des logiciels, nous créons une quantité incroyable de données. Vous ne pouvez pas embaucher suffisamment d’humains pour le désherber, nous nous tournons donc vers les ordinateurs, qui manquent de discrétion mais compensent vigoureusement. Les plus grands détenteurs de données – Google, Apple, Facebook, Microsoft, Amazon, les sociétés financières et, bien sûr, Big Butter – sont dans l’IA pour de nombreuses raisons. Mais le plus important est qu’ils ont toutes ces données et pas assez de programmeurs pour les comprendre. L’apprentissage automatique est un énorme raccourci, une voie vers de nouveaux produits et de grosses économies.

Donc, par curiosité et par paresse profondément optimiste, je me suis mis à en apprendre suffisamment sur le machine learning pour pouvoir alimenter un réseau de neurones tout ce que j’ai écrit et lui faire écrire un article, ou même juste un paragraphe, qui me ressemblait. Le premier mur que j’ai frappé est que, même pour un nerd qui a l’habitude d’être confus, l’apprentissage automatique est opaque. La lire, c’est réapprendre de nombreux mots, absorber des acronymes comme RNN ou LSTM (mémoire à long terme). Les gens parlent du paramètre de température, des fonctions de refroidissement et du recuit simulé. Je suis un vétéran du jargon, et croyez-moi, c’est une grande hootenanny épistémologique.

Pire encore, lorsque vous regardez sous le rocher tout l’apprentissage automatique, vous voyez un horrible nid de mathématiques: des crochets et des fonctions les matrices se dispersent. FAQ sur les logiciels, PDF, Medium publie toutes des spirales en équations. Dois-je comprendre la différence entre une fonction sigmoïde et tanh? Ne puis-je pas simplement tourner un cadran quelque part?

Tout cela me rappelle Linux et le Web dans les années 1990: un sentiment de merveilleuse possibilité si vous pouviez simplement escalader le mur du jargon. Et bien sûr, cela vaut la peine d’être appris, car cela fonctionne.

Cela fonctionne parce que ce que fait l’apprentissage automatique, c’est d’écrire des logiciels pour vous. Vous alimentez en données un programme et il crache un nouveau programme pour classer les données. Les grands logiciels ne savent souvent même pas ce qui se passe à l’intérieur du modèle. Cela devrait nous donner une pause, mais demander à la Silicon Valley de faire une pause pour réfléchir, c’est comme demander à un chiot de laisser tomber son jouet qui grince.

Voici une autre bonne nouvelle: l’apprentissage automatique est incroyablement lent. Nous sommes tellement habitués à ce que les ordinateurs soient ridiculement rapides, faisant des milliers de choses à la fois: vous montrer un film et vous connecter à des dizaines de pages Wikipédia pendant que vous discutez dans une fenêtre, écrivez dans un traitement de texte et tweeter tout le temps (certes, je pourrais avoir un problème). Mais quand j’ai essayé d’alimenter une boîte à outils d’apprentissage automatique toute mon écriture dans l’espoir de faire écrire des paragraphes à l’ordinateur, mon ordinateur portable a secoué la tête. Cela allait prendre au moins une nuit, peut-être des jours, pour faire un modèle de ma prose. Au moins pour le moment, il est plus rapide pour moi d’écrire moi-même les paragraphes.

Mais j’avais déjà lu des tutoriels et je ne voulais pas abandonner. J’avais téléchargé et installé TensorFlow, un grand environnement de programmation d’apprentissage automatique produit par Google et publié en tant que logiciel open source. En pêchant, j’ai décidé de télécharger mon calendrier Google et de nourrir toutes mes réunions vers TensorFlow pour voir s’il pouvait générer de nouvelles réunions réalistes. Tout ce dont le monde a besoin: un générateur de réunions.

Malheureusement, mes réunions sont une énorme pile d’événements avec des noms tels que «Dotation en personnel», «Pipeline», «John x Paul» et «Office happy hour». J’ai exécuté un script une fois pour charger les données, puis j’ai exécuté un autre script pour cracher invitations de calendrier. Cependant, lors de cet essai, j’ai défini le mauvais «faisceau» (Dieu seul sait ce que c’est) et le RNN a simplement produit le mot «pipeline» encore et encore. Ce à quoi je dois dire, juste. Ventes = ma vie.

Le fait est que cela pourrait ressembler à un échec. Mais j’avais donné à mon apprenant machine quelques milliers de lignes de texte (minuscules selon les normes d’apprentissage automatique), et il avait appris un mot. J’étais presque aussi fier que lorsque je pensais que mon bébé disait «chat». J’étais de retour à l’article fondateur d’Alan Turing de 1950 dans lequel il proposait de simuler un enfant par ordinateur. «Vraisemblablement, le cerveau de l’enfant est quelque chose comme un cahier, comme on l’achète à la papeterie», écrit-il. «Plutôt petit mécanisme et beaucoup de feuilles vierges.»

Modifiez les paramètres, réessayez. Après 50 «époques» (lorsque le programme lit toutes vos données une seule fois, c’est une époque – la formation d’un réseau nécessite beaucoup d’époques), je l’ai fait générer des réunions avec des titres comme «BOOK», «Sanananing broces» et «Talking Upgepteeelrent , »Même si j’ai jamais parlé Upgepteeelrent avec personne. Après cent époques, j’ai eu des réunions comme «Broam Shappery» et «DONKER STAR E5K».

De nombreuses heures ont passé. J’étais tellement absorbé par la simulation de réunions que j’ai raté une véritable réunion de pipeline de ventes. Je suis donc rentré chez moi, où j’ai un ordinateur plus rapide avec une unité de traitement graphique, ou GPU. Les GPU se sont révélés être l’arme secrète des mineurs Bitcoin et des apprenants automatiques. C’est parce qu’ils sont capables d’effectuer un grand nombre de calculs en même temps. Un microprocesseur ordinaire est une sorte de fabricant de saucisses à moteur logique; vous le nourrissez de viande (instructions) et il transforme la viande et produit des saucisses (sortie) toute la journée. Un GPU est comme des milliers de moulins à saucisses qui broient à la fois. Quels types de problèmes peuvent être décomposés en petites tâches qui peuvent toutes s’exécuter en même temps? Calcul de l’éclairage dans une scène 3D. Miner des Bitcoins. Et l’apprentissage automatique. Ces choses peuvent être accélérées des dizaines, voire des centaines de fois.

Malheureusement, même si j’ai suivi le instructions, je n’ai pas pu faire en sorte que Linux reconnaisse ma carte graphique, qui après 20 ans d’utilisation de Linux ressemble plus à une fonctionnalité familière qu’à un bogue. Bien sûr, tout ne serait pas perdu: je pourrais sauter en ligne et louer un TPU, ou Tensor Processing Unit, à Google (un tenseur est une chose mathématique où les choses se connectent à d’autres choses) en utilisant ses services cloud. Microsoft Corp. propose un apprentissage automatique dans le cloud pour 50 $ par mois pour «100 modèles gérés», et Amazon.com Inc. propose des «GPU élastiques» pour 5 ¢ l’heure. Google vous louera également un ordinateur pour cela. Mais si vous souhaitez louer un TPU Google et exécuter une tonne de tâches d’apprentissage automatique, cela vous coûtera 6,50 USD de l’heure, facturé à la seconde. Vaut-il 130 fois plus d’argent d’utiliser un TPU pour jouer avec les tenseurs? Si vous regardez des tonnes d’images satellite ou d’IRM, probablement.

Je suis retourné à mon ordinateur portable de travail et j’ai appliqué une compétence fondamentale à la programmation: la triche. Je suis passé de réseaux de neurones basés sur des «personnages» à un entraînement contre les «mots» – et depuis mon Le réseau de neurones pour animaux de compagnie n’apprend plus l’alphabet mais se contente de regarder des «jetons», mes réunions sont devenues beaucoup plus plausibles à la hâte.

Après 2000 époques, il est arrivé à de relativement bonnes réunions: «Paul et Paul !,» «Sarony Hears», et le redoutable «Check-in», mais il produisait encore principalement des trucs comme «Sit (Contench: Proposition / Gina Mcconk ». J’ai commencé à comprendre pourquoi tout le monde était si excité: il y a toujours, toujours un bouton de plus à tourner, une autre chose à modifier qui pourrait rendre l’ordinateur plus réfléchi. Ou, comme l’étudiant au doctorat de l’époque, Andrej Karpathy a écrit dans un essai de 2015, L’efficacité déraisonnable des réseaux de neurones récurrents: «Je forme des RNN tout le temps et j’ai été témoin de leur puissance et de leur robustesse à plusieurs reprises, et pourtant leurs sorties magiques trouvent toujours des moyens de m’amuser.» Il est actuellement directeur de l’IA chez Tesla Inc. Son réseau neuronal devait être plus qu’amusant.

Jouer avec l’apprentissage automatique gratte un nerd démangeaisons pour comprendre le monde et le maîtriser un peu, aussi – pour réduire la réalité aux entrées et aux sorties, et la remixer. Je voulais oublier ma famille et mon entreprise et retomber dans ce monde des TPU cloud, en lui fournissant toujours plus de données et en lui permettant de créer des modèles toujours plus surprenants que j’explorerais et filtrerais. Au fur et à mesure que vous exécutez le modèle, il devient de plus en plus intelligent. Regarder un train modèle d’apprentissage automatique lui-même, c’est comme regarder un montage de film. À la fin, un robotique Rocky monte les escaliers du musée d’art de Philly et lève ses bras de robot en l’air. Il est dommage que Robot Rocky ait été formé sur un ensemble de données de films de hockey au lieu de boxe, mais ce sera toujours fascinant de le voir entrer sur le ring et essayer de marquer un but.

Enfin, j’ai juste laissé tourner 20 000 époques et je suis rentré chez moi, mais les résultats n’étaient pas meilleurs le matin. Ou pire. Ils comprenaient: «Knight Days», «Happy Sales», «Company and home rattrapage», «Chit Planning personal bus. Pitch Lunch: Wendy no get »et« Tyler chat Deck ». Je ne sais pas ce que ça dit de ma vie tout cela pourrait être de véritables invitations.

J’avais atteint la limite de ce que je pouvais faire sans en savoir plus. J’avais appris que le machine learning est très lent à moins que vous n’utilisiez un équipement spécial, et que ma vie, du moins par les réunions auxquelles je participe, est assez ennuyeuse. J’accepte ces deux choses. La réalité est que mon corpus n’était pas assez grand; J’ai besoin de millions, de milliards de réunions pour construire un bon modèle prédictif. Mais imaginez ce que je pourrais faire! Je n’ai aucune idée! Donnez-moi un tableau blanc!

Je travaille dans le domaine des logiciels et l’apprentissage automatique est la grande nouveauté, mais je ne suis pas inquiet, et nous ne réoutillons pas notre entreprise. L’apprentissage automatique est important, mais il n’est pas prêt pour les civils (bien que consultez lobe.ai pour voir à quoi les choses pourraient ressembler à l’avenir). Comme pour tous les logiciels, les outils d’apprentissage automatique ont encore besoin que les gens viennent pour leur donner une belle apparence et leur apprendre à se comporter. Au moins pour le moment, les ordinateurs ont autant besoin de personnes que nous en avons besoin.

Aussi, pourquoi s’embêter? Le degré de verrouillage des grands joueurs est ridicule. Ils ont les données, les logiciels et les ingénieurs. Vous ne voulez pas donner votre argent à Google? Vous pouvez accéder à la plate-forme SageMaker d’Amazon et vous procurer une machine avec 8 GPU et 616 gigaoctets de mémoire sur tous ses processeurs pour 24,48 $ l’heure. Aujourd’hui, les modèles de formation sont lents; demain, votre lave-vaisselle entraînera un réseau neuronal sur votre vaisselle, pour mieux la nettoyer.

En attendant, pour les plus grandes entreprises technologiques, les avantages sont presque illimités. Et pour rien de plus que Google, une société de publicité en ligne avec une touche de recherche. Il ne s’agit pas d’une société de publicité, mais c’est le cas, et sa valeur marchande est d’environ 750 milliards de dollars, il devra donc l’accepter. Il contient une tonne de données. Et l’apprentissage automatique est vraiment efficace pour produire (un vrai mot) Big Data.

Donc, si je suis Google, le résultat absolu, le plus horrible et le pire des cas est que je serai en mesure d’utiliser ce que l’apprentissage automatique me donne et de l’appliquer à mon énorme suite de produits publicitaires et de les rendre mieux et plus utile, et effectuez des recherches plus intelligentes et plus efficaces dans les énormes pans de culture où je facture un péage, qui comprend YouTube, toute la géographie mondiale et (pratiquement) le Web lui-même. De plus, je peux faciliter l’utilisation des téléphones Android, que je contrôle également indirectement.

Simultanément, moi, Google, je publierai TensorFlow, ce qui permettra à un énorme groupe d’ingénieurs coûteux à recruter de se familiariser avec les outils que nous utilisons en interne, créant en eux un grand désir de venir faire du machine learning à notre échelle massive, où ils peuvent avoir toutes les heures de TPU qu’ils veulent. Et cela totalisera des dizaines de milliards de dollars au fil des ans.

Mais – toujours en canalisant Google dans mon cœur – dans mes rêves les plus fous, j’ouvrirai des gammes de produits entièrement nouvelles autour de la vision automatique, de la traduction, des services de trading automatique et généreront des centaines de milliards de dollars en valeur, le tout avant que l’apprentissage automatique ne succombe au pression à la baisse inévitable et devient trop bon marché et facile.

Je veux dire, même si Les TPU rétrécissent et tout le monde dans le monde peut faire du machine learning, j’aurai les données. Les belles données coûteuses à acquérir. J’aurai transformé toutes mes cartes en voitures autonomes, toutes mes conversations en téléphones qui ont des conversations pour vous, tous mes e-mails en réponses automatisées. Et je fournirai l’infrastructure cloud pour tout un monde d’apprentissage automatique – récupérant ce qui m’appartient légitimement à ces simples libraires d’Amazon – car mes outils seront la norme, et nos données seront les plus importantes et les applications les plus immenses. Une partie sera problématique. Les flics peuvent rechercher des personnes qui pourraient devenir des criminels, les agences de crédit peuvent prédire les personnes qui auront un mauvais crédit, les bureaux de la sécurité intérieure de nombreux pays peuvent filtrer leurs populations et dresser des listes de valeur douteuse. Nous serons l’infrastructure de tout cela.

Au pire, moi, Google, je réussirai tout simplement. Au mieux, je serai la technologie de base pour un audacieux nouvelle modernité numérique dans laquelle l’ordinateur est profondément ancré dans la vie humaine d’une manière que nous ne pouvons qu’entrevoir aujourd’hui.

SEO INSIDE est une agence de création de site internet à Lille.