LONGUE LECTURE : 52 choses que j’ai apprises lors de conférences technologiques en 2017

Für die deutsche Version klicken Sie hier

To read the English version click here

 

de grands remerciements à mon équipe média (et maintenant coactionnaires) qui ont rendu cette année aussi fructueuse et enrichissante : 

Éric De Grasse, directeur de la technologie

 Catarina Conti, responsable du contenu et de l’analyse média

Gregory Lanzenberg, coordonnateur des opérations médias et vidéo 

Alexandra Dumont, directrice des opérations de The Project Counsel Group

Angela Gambetta, responsable des opérations d’E-Discovery

 

avec des remerciements particuliers à mon extraordinaire vidéaste Marco Vallini et son équipe vidéo,

ainsi qu’à ma graphiste Silvia Di Prospero

 

et je remercie mes lecteurs en Australie, en Belgique, au Canada, en Chine, en France, en Allemagne, en Grèce, en Irlande, en Italie, en Afrique du Sud, au Royaume-Uni et aux États-Unis, qui sont les premiers pays en matière de lectorat. J’apprécie que vous preniez le temps de lire une perspective (encore une autre) sur la technologie et d’autres histoires d’un gars qui vit dans plusieurs pays.

 

* * * * * * * * * *

« Au cours des dernières années, les sujets scientifiques ayant occupé une place prédominante dans les journaux et les magazines sont la biologie moléculaire, l’intelligence artificielle, la vie artificielle, la théorie du chaos, le parallélisme massif, les réseaux neuronaux, l’univers inflationniste, les fractales, les systèmes adaptatifs complexes, la théorie des supercordes, la biodiversité, la nanotechnologie, le génome humain, les systèmes experts, l’équilibre ponctué, les automates cellulaires, la logique floue, les biosphères spatiales, l’hypothèse Gaïa, la réalité virtuelle, le cyberespace et les machines développant des téraflops. À la différence des quêtes intellectuelles antérieures, les réussites de cette culture technique ne constituent pas les querelles marginales d’une classe mandarine querelleuse : elles affecteront la vie de tout le monde sur la planète. »

12 janvier 2018 (Saint-Malo, France) – Vous pourriez penser que la liste de sujets ci-dessus fait partie d’un article écrit l’an dernier, ou peut-être une autre année très récente. Vous auriez tort. Cette dernière fut le point central d’un essai publié il y a 25 ans dans le Los Angeles Times par John Brockman, agent littéraire (très ami avec des gens comme Andy Warhol et Bob Dylan) et auteur spécialisé dans la littérature scientifique, plus connu pour avoir fondé l’Edge Foundation, un organisme visant à rassembler des personnes travaillant à la pointe d’un large éventail de domaines scientifiques et techniques. Si jamais vous êtes invité à un dîner ou à un événement Edge, allez-y. Vous pourriez vous retrouver assis aux côtés de Richard Dawkins, Daniel Dennett, Jared Diamond, John Tooby, David Deutsch, Nicholas Carr, Alex Pentland, Nassim Nicholas Taleb, Martin Rees, ou d’A.C. Grayling.  Où aux côtés de tous ceux-là.

 

Brockman a certainement vu juste. En revanche, il n’a peut-être pas été capable de prédire ce rythme vertigineux. Et cette année ? Écoutez, je ne sais pas comment le dire autrement : ça a été une année d’enfer. Le cycle des actualités et des annonces technologiques évolue si rapidement qu’après le temps dédié à la recherche, l’écriture, la réflexion, l’édition et la publication, c’est déjà de l’histoire ancienne. Et en 2017, les actualités d’hier pourraient tout aussi bien être celles de l’année écoulée.

 

Et pas seulement les actualités technologiques. Dans un monde où les gens s’inquiètent de ce qui pourrait leur arriver ensuite, il m’a été difficile d’écrire sur ce qui se passe sur des champs de bataille lointains ou dans l’abstraction du contexte des appareils de sécurité et de la surveillance nationale.

 

Oui, l’avancée époustouflante de la découverte scientifique et de la technologie fait rapidement reculer l’inconnu. Il n’y a pas si longtemps, la Création datait de 8 000 ans et le paradis planait à quelques milliers de kilomètres au-dessus de nos têtes. Maintenant, la Terre a 4,5 milliards d’années et l’Univers observable s’étend sur 92 milliards d’années-lumière. Cependant, je pense, alors que nous fonçons tête baissée dans le rythme frénétique de tout ce développement d’IA, que nous souffrons d’illusions d’entendement, d’un faux sens de compréhension, ne réussissant pas à voir le gouffre imminent entre ce que notre cerveau sait et ce à quoi notre esprit est capable d’accéder. C’est un problème, bien sûr. La science a engendré une prolifération de la technologie qui a infiltré de manière spectaculaire tous les aspects de la vie moderne.  À de nombreux égards, le monde devient si dynamique et complexe que les capacités technologiques dépassent les capacités humaines à interagir avec elles de manière optimale pour en tirer parti.

 

Comme mes lecteurs réguliers le savent bien, j’essaie d’être quelqu’un ayant une « vue d’ensemble », d’être un opsimathe dans l’âme, persuadé que tout ce qui touche à la technologie est lié. Le modèle que j’essaie de suivre est comme la tradition des magazines britanniques d’un journal hebdomadaire : penché sur la question, tout en prenant un peu de distance, aussi bien d’un point de vue personnel que politique, sur un mode conversationnel plutôt que formel.

 

Pour ce faire, je suis un programme de conférence très éclectique qui couvre plus de 18 événements (mon équipe couvre 8 autres événements) et qui me fournit une perspective et une éducation technologique holistique. Vous pouvez voir l’intégralité de notre calendrier annuel de conférences en cliquant ici. Appelez cela ma « théorie du tout » personnelle. Toutefois, si vous ne faites pas attention, vous pouvez vous retrouver avec un miasme mental avec toute cette technologie écrasante.

 

Mais j’ai adopté une grande partie de cette technologie dans mes activités quotidiennes et je l’ai, dans une grande mesure, apprise de mon mieux en « la pratiquant », en suivant le vieux proverbe espagnol:

Parce qu’écrire sur la technologie n’est pas une « écriture technique ». Cela consiste à définir un concept, à créer un récit. La technologie affecte les gens à la fois positivement et négativement. Il est nécessaire de fournir une perspective.

 

Posséder une entreprise de médias, assister à tous ces merveilleux événements technologiques, vous permet de rencontrer des gens comme Tom Whitehall, un « journaliste/avocat réformé » qui est maintenant un concepteur de matériel capable de démystifier le « processus d’innovation » (oui, cette expression intolérable). Il fournit des bases brillantes et une vision claire aux entreprises pour vraiment, vraiment innover.  Tout comme moi, Tom reçoit un flot de « contenu » (comme on appelle maintenant les écrits, les vidéos ou les photographies) qu’il condense en une liste des « 52 choses que j’ai apprises » à la fin de chaque année. Avec son aimable autorisation, je me suis approprié son titre il y a quelques années et même si nos sources se recoupent parfois (nous participons à plusieurs des mêmes événements), nous tirons des enseignements différents de ces conférences.

 

Donc voici les « 52 choses que j’ai apprises… », en commençant par le plus important :

 

– La tentative de l’IA d’imiter le cerveau est sacrément difficile

– Les Chinois surpasseront l’Occident dans le développement de l’intelligence artificielle

– Les algorithmes qui résument de longs textes s’améliorent, de même que les logiciels de traduction

– L’écosystème de la découverte électronique a finalement rencontré son démon

– La propagande informatique et la fin de la vérité

 

Pour les « trucs importants » mentionnés ci-dessus et pour l’ensemble de mes « 52 choses apprises en 2017 », cliquez ici. Et toutes mes excuses.  Une date limite de publication et quelques problèmes de formatage de texte m’ont empêché de faire traduire tout l’article en français.

* * * * * * * * * * * * * *

Tourner le regard vers 2018:

au-delà de la rhétorique du remaniement algorithmique

 

 

À un rythme toujours plus rapide, notre culture est progressivement absorbée dans la discussion des affaires. Il existe des « métriques » pour des phénomènes qui ne peuvent être mesurés de cette façon. Des valeurs numériques sont affectées à des objets qui ne peuvent pas être capturés par des nombres. Les concepts économiques se déchaînent dans les domaines non économiques : les économistes sont nos experts du bonheur ! Là où la sagesse existait autrefois, on trouve désormais la quantification. La quantification est l’influence la plus écrasante sur notre compréhension contemporaine… enfin, certainement la compréhension américaine… de tout. Cela est rendu possible par l’idolâtrie des données, qui a elle-même été rendue possible par les capacités de génération de données presque inimaginables de la nouvelle technologie.

 

La distinction entre savoir et information appartient au passé. Et dans la culture d’aujourd’hui, il n’y a pas de plus grande honte que d’appartenir au passé. Au-delà de son impact sur la culture, la nouvelle technologie pénètre des niveaux encore plus profonds d’identité et d’expérience, de cognition et de conscience.  Et même si le « technologisme », qui n’est pas la même chose que la technologie, s’affirme dans de plus en plus de domaines de la vie humaine, c’est également le cas du « scientisme », qui n’est pas la même chose que la science. Comme le fait remarquer Virginia Eubanks dans son nouveau livre :

 

La notion selon laquelle les dimensions immatérielles de la vie doivent être expliquées en termes de dimensions matérielles, et selon laquelle les compréhensions non scientifiques doivent être traduites en compréhensions scientifiques pour être qualifiées de savoir, est de plus en plus populaire à l’université et au-delà, tandis que les sciences humaines sont dénigrées car on considère qu’elles sont flexibles, peu pratiques et insuffisamment nouvelles. L’affirmation contraire selon laquelle les gloires de l’art et de la pensée ne sont pas des adaptations évolutionnistes, ou que l’esprit n’est pas le cerveau, ou que l’amour n’est pas seulement un appât biologique pour la sexualité, devient une sorte d’hérésie. De même, le point de vue selon lequel la meilleure défense des sciences humaines ne réside pas dans l’appel à leur utilité — les étudiants en lettres peuvent trouver de bons emplois, les théâtres peuvent revitaliser économiquement les quartiers — mais plutôt dans leur caractère non-utilitariste, de sorte que les individus peuvent apprendre plus que la façon dont les choses fonctionnent et développer leurs facultés de discernement et de jugement, leur compétence en matière de vérité, de bonté et de beauté, pour s’équiper de façon adéquate face aux choix et aux épreuves de la vie privée et publique.

 

Ou Carl Miller dans son nouveau livre, Power :

 

Aucune culture n’est philosophiquement monolithique, ni ne favorise une conception unique de l’humain. Une culture est un combat meurtrier entre des conceptions alternatives de l’humain.

 

 

Et on voit les problèmes inhérents à la « technologie du jour » ; mettre en œuvre des outils décisionnels algorithmiques pour permettre aux services sociaux ou à d’autres instances décisionnelles du gouvernement « d’accroître l’efficacité ou de réduire le coût pour les contribuables ». Ce qui, bien sûr, doit être « mis en œuvre de manière éthique ».

 

Foutaises.  Comme de nombreux présentateurs l’ont expliqué à la Conférence et à l’atelier sur les systèmes de traitement de l’information neuronale (NIPS)… la conférence méga-AI que j’ai citée à plusieurs reprises dans mon article « 52 choses que j’ai apprises en 2017 »… le « train de l’IA éthique a quitté la gare ». Un présentateur a fait la remarque suivante :

 

Dans le domaine de l’IA et de l’éthique, nous sommes confrontés à un problème similaire au dilemme de la sécurité : la vitesse par rapport à la sécurité. Ces notions et leur application commerciale vont simplement trop vite.  C’est la même chose pour l’IA. C’est toujours la même histoire : la nouvelle technologie entre en scène, la société est souvent obligée de repenser un comportement auparavant non réglementé. Ce changement se produit souvent après coup, quand nous découvrons que quelque chose ne va pas.  La vitesse à laquelle cette technologie est déployée au public peut faire en sorte qu’il est difficile pour la société de suivre le rythme. Lorsque vous essayez de construire aussi grand que possible ou le plus rapidement possible, il est facile pour les gens qui sont plus sceptiques ou inquiets de voir les problèmes qu’ils ont soulevés laissés à l’abandon, non par malveillance, mais parce que « nous devons respecter cette date d’expédition ».

 

Et nous combattons les gouvernements et/ou les mauvais acteurs qui imposent des agendas égoïstes contre le bien commun. Il y a, en effet, une guerre qui est plus menaçante que la guerre nucléaire. Regardez le développement d’agents d’IA formés sur quelque chose comme la plateforme Universe d’OpenAI, apprenant à naviguer dans des milliers d’environnements web en ligne… et ensuite à l’écoute pour imposer un agenda. Cela pourrait déclencher une invasion de bots et de trolls intelligents sur le web, d’une manière qui pourrait détruire la notion même d’opinion publique.

 

En ce qui concerne les préjugés liés à l’IA, comme l’a souligné Kate Crawford [elle a prononcé le discours principal à NIPS], nos ensembles de données actuels reposent toujours sur des classifications plus anciennes. Alors Imagenet puise dans la taxonomie de Wordnet. Donc, si les classifications les plus anciennes sont biaisées de manière inhérente, cela affecte les ensembles de données actuels et les préjugés peuvent être aggravés.

 

 

Aux États-Unis, ils ne « comprennent » même pas les coûts réels, qu’il s’agisse de la prise de décision judiciaire (par ex., la « notation d’évaluation des risques ») ou de la modélisation des personnes risquant de devenir sans-abri. Les systèmes algorithmiques ne nécessitent pas simplement de l’argent pour être mis en œuvre. Ils nécessitent de l’argent pour être entretenus. Ils nécessitent de l’argent pour être vérifiés. Ils nécessitent de l’argent pour évoluer avec le domaine qu’ils sont destinés à servir. Ils nécessitent de l’argent pour former leurs utilisateurs à utiliser les données de manière responsable. Surtout, ils rendent visible toute la brutalité des points névralgiques et des causes profondes dans les systèmes existants qui nécessitent une augmentation des services. Autrement, tout ce que ces systèmes font c’est aider à détourner l’argent des contribuables des services directs, à remplir les poches des entités à but lucratif dans l’illusion d’aider les gens. Pire, ils contribuent à un détournement de la responsabilité parce que maintes et maintes fois, ceux qui sont dans des positions d’autorité blâment les algorithmes.

 

Oui, oui, oui.  Tout chercheur en sciences sociales avec un cœur veut désespérément comprendre comment éliminer l’inégalité et créer un système plus juste et plus équitable. Donc, bien sûr, il y a un désir d’intervenir et d’essayer de donner un sens aux données disponibles pour contribuer à l’amélioration de la vie des gens. Mais traiter l’analyse des données comme le sauveur d’un système brisé est terriblement naïf.

Cela obscurcit les incitations financières de ceux qui construisent ces services, la rhétorique déterministe qu’ils utilisent pour justifier leur mise en œuvre, l’opacité qui résulte du fait que des acteurs non techniques essaient de comprendre le jiu-jitsu technique et la dure réalité de la façon dont la technologie est utilisée comme un outil de matraquage politique.

 

Le paragraphe ci-dessus est une simplification du point principal dans un nouveau livre qui sortira dans quelques semaines (on m’a envoyé une copie à l’avance pour en faire la chronique), le livre « Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor » de Virginia Eubanks.  Il expose le coût réel de ces systèmes. Il s’agit d’une analyse approfondie de la façon dont les outils algorithmiques sont intégrés dans les services pour le bien-être, l’itinérance et la protection des enfants. Eubanks s’intéresse aux personnes et aux familles qui sont les cibles de ces systèmes, racontant leurs histoires et leurs expériences de manière détaillée. En outre, en s’appuyant sur des entretiens avec des clients et des prestataires de services sociaux, ainsi que sur des informations fournies par des vendeurs de technologie et des représentants du gouvernement, Eubanks montre clairement comment les systèmes algorithmiques se déroulent sur le terrain, malgré tout l’espoir qu’inspire leur mise en œuvre.

 

Eubanks évite le terme « ethnographie » parce qu’elle soutient que ce livre constitue du journalisme immersif, pas de l’ethnographie. Pourtant, de mon point de vue de chercheur et de lecteur, c’est le meilleur travail d’ethnographie que j’ai lu depuis des années. « Automating Inequality » fait exactement ce qu’un bon travail d’ethnographie devrait faire ; il offre un compte rendu convaincant sur les logiques culturelles entourant une dynamique particulière, et invite le lecteur à vraiment saisir ce qui est en jeu du point de vue d’un large éventail de personnes pertinentes ; qui se sont faites avoir par les fausses promesses de ces technologies. Elle rend visible la politique et les enjeux, les coûts et l’espoir.

 

Et j’aime le titre ; un rétro-acronyme fantastique pour l’AI – IA en français 🙂

J’ai hâte de voir beaucoup d’entre vous sur le circuit de la conférence technologique.  Je vous souhaite une excellente année 2018.

 

 

 

[voir le lien vers la version française]

 

2 thoughts on “LONGUE LECTURE : 52 choses que j’ai apprises lors de conférences technologiques en 2017”

Leave a Reply

Your email address will not be published. Required fields are marked *