L'AUTRE QUOTIDIEN

View Original

Comment les compagnies du Big Tech exploitent le coronavirus pour renforcer leur pouvoir

Lorsque les géants de la technologie offrent leur aide pour les applications de recherche de contacts, ils ne font pas preuve d'altruisme - ils s'intègrent dans des infrastructures essentielles comme les soins de santé d'une manière qui sera difficile à inverser.

L'année dernière, DeepMind, une filiale de la holding Google Alphabet et l'une des principales sociétés de recherche en IA au monde, a fait état de pertes de 470,2 millions de livres sterling et de dettes pouvant atteindre 1 milliard de livres sterling. La réponse de la société a été étonnamment calme. Selon un rapport du Financial Times, DeepMind a affirmé qu'il n'y avait aucun risque de faillite et que la dette avait été garantie par Google.

Quelle a donc été la perte calculée par Alphabet ? Lorsqu'elle a acquis DeepMind en 2010, c'était en réponse à un intérêt croissant pour la recherche en IA, mais aussi à une course qui avait commencé entre les États-Unis et la Chine pour créer la première “intelligence générale artificielle” au monde. Le premier à réaliser cet exploit aurait le contrôle d'une technologie qui allait transformer l'économie mondiale, sans parler d'un monopole qui lui garantirait sa domination sur le marché dans un avenir lointain.

Comprendre pourquoi, c'est comprendre la différence entre l'intelligence artificielle normale et l'intelligence générale artificielle. La première existe tout autour de nous et constitue tout système capable de s'améliorer grâce à ce que l'on appelle "l'apprentissage machine".

Nous le constatons dans Siri d'Apple, Alexa d'Amazon et dans diverses applications de navigation. Dans le passé, les systèmes informatiques devaient être préprogrammés pour effectuer une tâche donnée, alors qu'aujourd'hui, beaucoup d'entre eux sont capables de s'améliorer au fil du temps et par eux-mêmes.

Dans le cadre de la mise en place de l'AGI (l'intelligence générale artificielle), des sociétés comme DeepMind développent néanmoins aussi des systèmes d'IA performants. C'est le "produit" pour ainsi dire, et il est vendu à d'autres sociétés de la compagnie Alphabet pour améliorer leurs services. Les chiffres de l'année dernière montrent toutefois à quel point ce système joue un rôle mineur dans la raison d'être de l'entreprise.


Ces systèmes sont également limités à une seule discipline ou, s'ils sont capables d'apprendre plusieurs disciplines, doivent le faire à tour de rôle et à partir de zéro. Une intelligence générale artificielle, en revanche, est un système capable de s'attaquer à plusieurs disciplines, voire à une infinité, et de les maîtriser, grâce à un processus appelé "apprentissage par transfert".

Pour y parvenir, il faut toutefois trois ingrédients principaux. Le premier est la recherche. Au moment où nous écrivons ces lignes, DeepMind emploie des centaines de doctorants, dont la plupart perçoivent des salaires à six chiffres.

Les universités étant incapables de rivaliser, on craint une fuite des cerveaux dans nos sièges d'apprentissage, sans parler de la privatisation massive des connaissances. Des recherches qui auraient été autrefois la propriété des universités d'Oxbridge ou d'Imperial appartiennent aujourd'hui à un géant américain de la technologie. Cela s'ajoute à la stratégie agressive de Google en matière de brevets et à son impact négatif sur la propriété intellectuelle, déjà largement dénoncé.

Le second est la puissance de calcul, et jusqu'à présent Alphabet est le leader mondial dans ce domaine. Les chercheurs développent les algorithmes, les ingénieurs créent l'environnement technique, mais pour parvenir à l'apprentissage performant d'une IA avancée, le système nécessitera une énorme quantité de puissance en pétaoctets.

Enfin, et surtout, ces deux facteurs dépendent de la fourniture suffisante de données. Pour qu'un système devienne suffisamment avancé pour accueillir les compétences avancées d'une IAG, il devra être formé sur d'énormes ensembles de données.

L'un des rares domaines capables de fournir cela est l'infrastructure critique. Les entreprises privées et les organismes publics qui assurent notre approvisionnement en nourriture, en énergie et en eau, les systèmes de transport et les services de santé, génèrent d'énormes quantités de données en temps réel. L'IA promet de pouvoir améliorer ces systèmes, en détectant des problèmes d'efficacité qui pourraient autrement passer inaperçus, ou en réagissant et en prédisant les problèmes avec une rapidité et une compétence qui dépassent actuellement les capacités technologiques existantes. Mais la transaction n'est pas à sens unique. En recevant ces données, les systèmes sont également capables d'apprendre, de s'améliorer et de gagner en puissance.

C'est pourquoi l'implication de Google dans la gestion de l'épidémie de Coronavirus, devrait nous alarmer, ainsi que l'inclusion du PDG de DeepMind, Demis Hassabis, aux réunions du SAGE du gouvernement. Les conflits d'intérêts sont nombreux, alors que le désespoir humain au milieu d'une pandémie mondiale pourrait conduire à l'acquisition de données pour fournir et améliorer des systèmes technologiques avancés et privés.

Des auteurs, dont Naomi Klein, se sont inquiétés de la possibilité que le secteur technologique tire profit de la crise. Mais ce qui est sans doute plus important, ce n'est pas seulement l'acquisition de capital en soi, mais aussi de grandes quantités de données de différents types. Covid-19 crée la possibilité d'un degré sans précédent d'interférence technologique privée dans la vie civique, qui soit directement, soit par la création d'une dépendance dans le secteur de la santé qui est difficile à inverser plus tard, conduit à la possibilité que nos données soient utilisées pour construire des systèmes qui pourraient conduire à des inégalités extrêmes plus tard.

Tout cela pour dire que les impératifs d'"aide" sont loin d'être aussi simples ou altruistes qu'ils pourraient le paraître à première vue, et que la relation entre le secteur de l'IA, les services de santé et d'autres aspects de nos infrastructures essentielles, deviendra à un moment donné réciproque. C'est une question qui ne relève pas de l'éthique de l'IA, qui est devenue une discipline de plus en plus importante ces dernières années.

Jusqu'à présent, il semble qu'il faille se demander si cette technologie naissante pourrait éviter les problèmes de partialité et de discrimination, ainsi que la prévention de son utilisation à des fins militaires. Ces deux questions sont urgentes, mais sans doute plus fondamentales que les deux, et qu'aucun comité d'éthique autorisé par l'entreprise ne va jamais examiner, c'est la logique du marché qui est au centre de l'entreprise, et la question de savoir si nous, en tant que société, devrions nous porter volontaires pour améliorer une technologie qui change le monde. Pour toutes ces raisons, il faut à tout prix résister à une application de recherche de contacts basée sur Google.

Nathalie Olah

article original paru dans Tribune
Traduction et édition L’Autre Quotidien

Nathalie Olah est journaliste et rédactrice en chef indépendante. Ses écrits se concentrent sur l'intersection entre la politique et la culture contemporaine, et elle est l'auteur de “Steal as Much as You Can.”

https://repeaterbooks.com/product/steal-as-much-as-you-can-how-to-win-the-culture-wars-in-an-age-of-austerity/