Innovations de l’industrie avec Google Cloud

Une conversation avec Patricia Florissi de Google Cloud portant sur les dichotomies numériques de la décennie et le rôle du gouvernement.

Alistair Croll : [00:00:00] Bonjour, et bienvenue à une nouvelle entrevue avec l’un de nos partenaires pour FWD50 de notre série Innovations de l’Industrie. Aujourd’hui, je suis ravi d’accueillir la Dre Patricia Florissis . Elle est directrice technique au sein du bureau du CTO de Google. Elle travaille dans le secteur des technologies depuis des décennies et a des idées fascinantes sur les compromis que nous devons faire lorsque nous adoptons la technologie et l’intégrons dans notre vie quotidienne.

Bienvenue, Patricia. 

Patricia Florissi : Merci. Alistair. Et c’est un plaisir d’être ici aujourd’hui. C’est un honneur. 

Alistair Croll : C’est génial de vous avoir. Donc, lorsque nous avons discuté de cette conversation plus tôt, vous avez mentionné que la technologie a beaucoup d’avantages, mais aussi beaucoup d’inconvénients, et ce sont vraiment des compromis auxquels nous devons penser en tant qu’humains. Brièvement, avant d’entrer dans chacun d’eux. Pouvez-vous parler de ce que sont ces compromis ? 

Patricia Florissi : Oui. Je n’en citerai que trois, il y en a beaucoup d’autres, mais trois me viennent à l’esprit. [00:01:00] Le premier est la vie privée contre l’IA impartiale et équitable. Le deuxième est la durabilité contre l’IA omniprésente. Et le troisième est la souveraineté contre l’échelle et la vitesse de l’innovation.

Alistair Croll : Donc, à première vue, cela ne ressemble pas à des compromis. Alors peut-être pouvez-vous me donner un peu plus de détails sur le premier que vous avez mentionné. 

Patricia Florissi : Ok, alors plongeons dans la question de la vie privée et de l’IA impartiale. Nous voulons que les données soient confidentielles, mais aussi que l’IA soit aussi exempte de préjugés injustes que possible, ce qui nécessite des informations telles que des sous-groupes et des données démographiques afin de parvenir à une « impartialité ». Pouvons-nous atteindre les deux ?

Alistair Croll : L’exemple qui me vient immédiatement à l’esprit est que lorsque j’indique à Google Maps mon emplacement et la façon dont je vais me rendre à une destination, que je sois à pied ou en voiture, ce sont toutes des informations qui sont essentiellement des informations privées sur moi-même, en particulier si j’ai ajouté des choses comme j’aime les sushis, mais je n’aime pas le steak, alors il peut faire de très bonnes recommandations sur  » voici, comment s’y rendre et dans quels restaurants s’arrêter en chemin « , ce qui semble très utilitaire et très utile – mais j’ai dû divulguer quelque chose sur moi-même. L’utilité augmente avec le contexte et je lisais la phrase étonnante de Stewart Brand, « la bonne information au bon moment change tout simplement nos vies. » Il semble que ce soit un sentiment très inquiétant ou important lorsqu’il s’agit de vouloir que l’IA change nos vies pour le meilleur. 

Patricia Florissi : Vous avez tout à fait raison. D’une part, nous nous engageons à construire une technologie qui fonctionne pour absolument tout le monde, n’est-ce pas ? Nous pouvons donc développer une technologie avancée qui soit conforme aux principes de l’IA, en particulier aux principes de l’IA de Google et aux droits de l’homme dans des domaines tels que la vie privée, les préjugés involontaires et l’inclusion. Et cela inclut non seulement le respect des exigences légales et réglementaires, mais aussi la prise en compte d’éléments tels que les normes sociales et les attentes typiques des individus [00:03:00]. D’autre part, il est nécessaire d’avoir accès aux données appropriées afin de tester, de valider et de former les modèles. Et nous reconnaissons que nous ne voulons pas, à bien des égards, compromettre la portée des données qui sont analysées, et nous nous concentrons plutôt sur la promotion de l’inclusion des données et de l’équité des données afin d’accomplir nos engagements en matière d’équité. Pour être honnête avec vous, il s’agit d’un domaine de recherche en cours dans la communauté ML, avec une marge de progression importante. 

Alistair Croll : Eh bien, je me souviens que Susan Etlinger – qui est l’un de nos conférenciers cette année – m’a d’abord présenté Word2Vec, qui est le grand Corpus des analogies de noms. Et malheureusement, lorsque vous regardez ces données, de la même manière que l’on dit « Paris est à la France comme Tokyo est au Japon », on dit « homme est au médecin comme femme est à l’infirmière », ce qui est évidemment très malheureux. Mais en même temps, des efforts ont été entrepris pour identifier ces biais inhérents.

Et pour moi, ce qui est [00:04:00] le plus intéressant, c’est que beaucoup des choses qui nous indignent aujourd’hui, à juste titre, ont toujours existé en tant que préjugés, mais on ne nous les a pas montrées. Et il me semble que la première chose que l’IA a faite a été de nous tendre un miroir géant, parce qu’elle nous a observés et que nous pouvons maintenant voir où nous devons intervenir.

L’autre jour, j’ai effectué une recherche sur Google concernant le nouveau film de James Bond intitulé No Time To Die. Et j’ai tapé dans Google « où voir No Time To Die ». Et le résultat que j’ai obtenu n’était pas une liste de films. C’était une ligne d’assistance au suicide, parce que j’ai tapé le mot « time to die », et Google s’est dit : « Hé, la bonne réponse à quelqu’un qui demande « est-ce le moment de mourir ? » est de lui montrer une ligne d’assistance au suicide. »

Il ne s’agit donc pas seulement d’IA du côté de la formation. Mais il s’agit aussi du contexte de la recherche et de ce qu’il convient de faire en matière de requête et d’affichage. Il semble que tout ce pipeline nécessite une réflexion approfondie sur les [00:05:00] compromis. Est-ce qu’il s’agit clairement d’une personne qui se sent bien et qui peut trouver une autre façon de chercher un film sur Google, alors que quelqu’un qui a besoin d’aide aurait probablement dû avoir cette intervention. Et donc, pour moi, c’est fascinant de voir comment nous naviguons entre ces compromis entre la divulgation, la vie privée et ce que les données nous disent. 

Patricia Florissi : Encore une fois, je soulève un point important car l’IA ne part pas de zéro, car l’IA n’est pas une application auto-isolée. Au contraire, la technologie de l’IA est intégrée dans un flux de travail et un environnement où elle prend des décisions sur la base de ce qu’elle sait. Et ces décisions ont un impact sur les gens d’une manière très, très différente de la création d’un logiciel, comme une plateforme de commerce électronique.

Et ce qu’il sait est déterminé par les personnes qui sont au centre, et à chaque étape du développement de l’apprentissage automatique. Et au cours de l’histoire, ce que nous savons, c’est que les gens ont aussi l’habitude de prendre des décisions qui ne sont pas en accord avec les besoins [00:06:00] de tout le monde.

C’est donc pour cette raison que les systèmes d’IA sont le reflet de ce qui existe dans la société – c’est un point que vous avez soulevé – et sans bonnes pratiques, l’IA peut reproduire des problèmes ou des préjugés existants et les amplifier à des niveaux sans précédent. Les droits de l’homme et l’élaboration de principes d’IA, ainsi qu’une approche visant à rendre ces principes opérationnels dans notre organisation, peuvent servir de point de départ pour comprendre et traiter les différends et les cas d’adresse, comme vous l’avez dit, et je crois qu’il existe de nombreuses pratiques et étapes pour rendre l’IA aussi exempte de préjugés injustes que possible. L’une d’entre elles consiste à mettre en place une collaboration multipartite, non pas d’un seul côté, mais d’un côté qui permettra à plusieurs secteurs de participer : la société civile, le gouvernement, les fournisseurs de technologie, le monde universitaire, les experts sectoriels ou industriels. Il s’agit d’un effort collectif.

Alistair Croll : Alors Patricia, il y a évidemment ce compromis entre la vie privée et l’efficacité. Plus vous divulguez d’informations, plus un système peut adapter efficacement ses résultats à vos besoins. Comment les entreprises – et Google en particulier – trouvent-elles un moyen d’équilibrer cela et de partager autant que possible avec l’outil qui fonctionne dans notre service sans divulguer ces données ailleurs, où elles pourraient être utilisées à mauvais escient ?

Patricia Florissi : Oh, merci de poser cette question car je suis très enthousiaste à l’égard de tout ce que fait Google. En 2018, nous avons publié les principes de Google en matière d’IA pour effectivement aider à guider le développement et l’utilisation éthiques de l’IA. Il s’agit de normes directrices d’entreprise vraiment larges, qui sont soutenues par des processus internes robustes pour s’assurer qu’elles sont mises en œuvre application par application aux entreprises individuelles et aux décisions relatives aux produits.

Permettez-moi donc de vous donner un aperçu de ces principes d’IA : 

– L’IA doit être socialement bénéfique.

– [00:08:00] L’IA ne devrait pas créer ou renforcer des préjugés injustes. 

– L’IA doit être construite et testée pour la sécurité.

– L’IA devrait être responsable devant les gens. 

L’IA devrait intégrer les principes de conception de la vie privée, etc.

Comme vous l’avez vu, l’équité est l’un de nos principes fondamentaux en matière d’IA et nous pensons que des systèmes de ML bien conçus peuvent aider à surmonter les préjugés injustes dans la prise de décision humaine et fournir des résultats plus justes – et je dirais même équitables – pour tout le monde. Notre travail couvre toute la gamme. Pour vous en donner quelques exemples, nous investissons dans la recherche dans des domaines tels que la mesure des préjugés et l’intégration de contraintes d’équité dans les modèles, ainsi que dans des outils open source comme les facettes et les outils de simulation pour aider à visualiser la représentation et les préjugés. Nous fournissons également des tutoriels en ligne et un soutien communautaire. Nous avons donc une gamme complète d’angles sur lesquels nous travaillons pour nous assurer que nous faisons les bons compromis. 

Alistair Croll : Et ceux qui sont haut placés dans l’organisation se retrouvent dans Google Compute et toutes les autres plateformes et outils que vous construisez. C’est bien ça ?

Patricia Florissi : Partout. 

Alistair Croll : Vous avez mentionné qu’il y a trois compromis, évidemment le compromis entre la vie privée et l’utilité ou l’efficacité de l’apprentissage automatique et des algorithmes est un compromis. Qu’en est-il des deux autres ? 

Patricia Florissi : Le deuxième point concerne la durabilité et l’IA omniprésente. Nous voulons la durabilité, mais nous avons également besoin d’analyser d’énormes quantités de données, des quantités de données sans précédent, pour savoir comment exploiter au maximum le potentiel de l’IA sans avoir d’impact sur les émissions de carbone. Alors que l’IA devient de plus en plus utile dans nos vies personnelles et professionnelles et que la coopération s’appuie sur un chemin d’expansion continue, comme vous l’avez probablement vu sur l’application et l’adoption de [00:10:00] l’IA, l’un des aspects que nous négligeons souvent est le fait que l’IA peut être très coûteuse d’un point de vue informatique, plus ceux qui sont formés ou des centaines de milliers, voire des millions de points d’ensemble de données qui doivent être collectées et calculées sur et les former tous. Il ne s’agit pas d’un événement ponctuel où je suis une autre souche, un centre qui fait allusion à une période de temps plus longue au fur et à mesure que de nouvelles données sont recueillies, puis le monde change et évolue de la même manière. Pour des raisons de latence, de plus en plus d’ordinateurs sont déployés à la périphérie, en dehors des centres de données, en dehors des nuages, ce qui entraîne des coûts d’investissement supplémentaires pour les utilisateurs qui achètent leurs propres appareils et pour les entreprises qui déploient quelque chose comme l’IOT. Et c’est là que naît le compromis. D’une part, l’IA devrait être omniprésente et cohérente, [00:11:00] et nous comptons de plus en plus sur l’IA dans notre vie quotidienne. D’autre part, la durabilité est devenue un autre droit humain numérique fondamental. Comment trouver un équilibre entre les deux ? 

Alistair Croll : Ouais, il me semble qu’il y a une chose philosophique intéressante qui se passe ici, qui est que, vous savez, il y a une sorte de connaissance cristallisée, que nous considérerions normalement comme la sagesse, les choses qu’on vous enseigne, les choses que vous apprenez au fil du temps et que vous classez pour un usage rapide. Et puis il y a cette sorte d’intelligence fluide construite sur les premiers principes. Et de la même manière, vous savez, au moment où le modèle est calculé, il ne sait rien d’autre. Si vous lui demandez de prédire le futur, il le fait toujours en se basant sur le passé. Et donc le taux de changement du passé nous indique à quelle fréquence nous devons mettre à jour le modèle. Mais si le futur, si le passé continue à changer de plus en plus vite, alors la date de péremption de la sagesse devient de plus en plus courte, ce qui implique une plus grande empreinte carbone. Alors, que pouvons-nous faire pour la réduire ? 

Patricia Florissi : Oui, c’est une excellente question, parce que l’impact environnemental des modèles ML dépend en fait de la quantité d’énergie utilisée plutôt que de la source de cette énergie. Et c’est là que réside le secret, car nous essayons constamment d’innover pour améliorer l’efficacité des ML afin qu’ils consomment moins d’énergie, ce qui est bon pour la durabilité et les coûts, mais nous devons regarder où ils se trouvent. L’énergie provient du cloud de Google et de Google en général, les opérations de Google sont neutres en carbone. Nous n’avons donc pas d’empreinte carbone nette pour la formation et le service des modèles ML dans nos centres de données. Il est important de comprendre la différence entre neutre en carbone et neutre, et sans carbone. Dans le cas de la neutralité carbone, nous achetons suffisamment d’énergie renouvelable pour neutraliser les émissions provenant de sources d’énergie polluantes qui pourraient être utilisées pour faire fonctionner un centre de données à un moment donné. Mais Google [00:13:00] s’est engagé à ce que d’ici 2030, nos opérations soient sans carbone. En permanence et partout, ce qui signifie que tous nos modèles ML seront formés et servis en utilisant une énergie entièrement sans carbone. Maintenant, laissez-moi vous donner un petit chiffre ici pour mettre le chiffre, vraiment les capacités. Nous estimons que la formation de Lambda, un grand modèle avec 2,6 milliards de paramètres, a scellé une émission équivalente à environ 96,4 tonnes métriques. Pour vous donner une idée, c’est autant de carbone qu’un voyage aller simple en avion de San Francisco à New York pour former un seul modèle. Nous pensons donc que les avantages de l’apprentissage automatique, à savoir une récupération plus efficace et plus rapide des solutions de changement climatique automatique, valent la peine d’utiliser de l’énergie pour former les modèles ML, mais nous partageons également nos résultats [00:14:00] par le biais de publications et de codes sources ouverts afin qu’ils puissent être appliqués dans le domaine de la recherche ML.

Alistair Croll : Effectivement, il y a environ zéro atome de carbone, à quelques exceptions près, mais vous savez, environ zéro atome de carbone dans l’atmosphère qui est le résultat de Google.

Patricia Florissi : Précisément. Donc vous n’avez pas à vous sentir coupable quand vous faites une recherche ou quand vous faites une recherche aussi. 

Alistair Croll : Commencez-vous à voir des exigences en matière d’approvisionnement qui stipulent des entreprises à zéro carbone ou neutres en carbone ? 

Patricia Florissi : Je ne sais pas s’il existe des réglementations en tant que telles, mais nous ne nous contentons pas de promouvoir les utilisateurs sans carbone et de prendre un engagement d’ici 2030, mais nous permettons également à nos clients de choisir où ils veulent stocker leurs données et où ils veulent exécuter leurs calculs entre la cabine et entre des lieux qui diffèrent en termes d’émissions de carbone. Nous avons donc voulu créer des incitations et un moyen pratique pour nos clients de déplacer les charges de travail, lorsque c’est possible, vers des régions plus sobres en carbone. 

Alistair Croll : Et je suppose que le mouvement de la charge de travail est vraiment important aussi, parce que comme vous voyez les charges de travail en pointes, certaines parties du monde sont très demandées. Disons qu’il fait plus chaud là-bas, ou qu’il fait jour là-bas. Par conséquent, la climatisation fonctionne ou il fait froid, et le chauffage fonctionne. Être capable de déplacer les charges de travail avec une différence relativement faible en termes de latence, parce que vous savez, si vous formez un modèle, cela se passe et vous obtenez les résultats. Ce n’est pas comme une communication en temps réel. Pouvoir déplacer une charge de travail dans le monde entier, géographiquement, de manière à utiliser des endroits qui ont une capacité inemployée plutôt que d’essayer de la stocker dans des batteries, est une bonne raison d’utiliser l’informatique élastique d’une manière ou d’une autre, la portabilité d’une charge de travail vous permet de maintenir plus efficacement le niveau de consommation électrique à plat plutôt que de faire face à des pics.

Patricia Florissi : Et c’est là que les clients bénéficient du système cohérent de développement, de construction, d’exploitation et de gestion de leur environnement qu’ils obtiennent avec les [00:16:00] clouds et ce que nous appelons l’approche des clouds ouverts qui sont basés sur l’open source et sur un écosystème. Et cela fournit de l’agilité et de la flexibilité grâce à la rentabilité.

Alistair Croll : Yeah. Oui, l’idée de mon, mon conteneur, vous savez, Kubernetes et Docker, volant autour du monde, suivant le soleil, est une idée plutôt cool. En fait, je faisais une remarque à ce sujet l’autre jour. Ma copine a appuyé sur un bouton de son ordinateur qui a fait changer quelque chose sur un projecteur ailleurs dans la maison. Mais le fait d’appuyer sur ce bouton a été transmis à un centre de données utilisant son logiciel qui a envoyé un message à un autre serveur, puis à cet autre projecteur qui se trouvait à trois mètres. Et mon cerveau a explosé, en pensant à la pile de ressources, pas seulement, vous savez, l’extraction du silicium pour fabriquer les puces et les ordinateurs et nous les envoyer. Mais la mécanique de la pression du bouton de la souris et l’envoi d’un message à un serveur de données quelque part dans le nuage qui a changé certains, certains registres de mémoire qui ont poussé un autre message. C’est presque [00:17:00] impensable comment nous en sommes venus à dépendre de cette pile très complexe pour faire quelque chose que, vous savez, nos ancêtres auraient simplement crié à travers la pièce, mais nous appuyons sur un bouton et il doit voyager à l’autre bout du monde sur cette incroyable pile technologique pour envoyer ce même message, ce qui je suppose m’amène à votre troisième dichotomie.

Nous avons parlé du compromis entre, vous savez, la divulgation de plus d’informations et la volonté de protéger la vie privée, et le fait que plus vous en dites, plus l’algorithme est efficace. Nous avons également parlé de la nécessité de disposer en permanence d’informations fraîches issues de modèles récemment formés, sans avoir à assumer une lourde empreinte carbone. Mais le troisième compromis dont vous avez vraiment parlé, et c’est celui qui était le plus opaque pour moi lorsque vous l’avez expliqué pour la première fois, était l’échelle contre la souveraineté. Pouvez-vous commencer par expliquer ce que vous entendez par souveraineté ? 

Patricia Florissi : Je pense qu’il y a une question très, très importante ici parce que le cloud computing d’une part est reconnu mondialement comme la voie unique la plus efficace, effective et [00:18:00] évolutive vers la transformation numérique et pour conduire une création de valeur. Comme vous le savez, il a été un catalyseur essentiel de la croissance, permettant aux organisations privées et aux gouvernements d’aider les consommateurs et les citoyens à fournir des services rapidement sans investissement en capital prohibitif. Cela permet une échelle sans précédent, mais en même temps, les organisations, et je dirais, en particulier en Europe, elles mènent un effort autour du, et cela inclut à la fois les secteurs public et privé, fournissent qu’ils recherchent un fournisseur pour fournir le Cloud à leurs conditions. Un fournisseur qui réponde à leurs exigences en matière de sécurité, de confidentialité et de souveraineté numérique sans compromettre la fonctionnalité ou l’innovation. Plongeons donc dans ce concept de souveraineté, mais aussi de souveraineté numérique, qui est même un élément essentiel de ce concept. Chez Google Cloud, suite à nos conversations avec des clients et des décideurs, nous avons développé une stratégie basée sur trois piliers distincts. La souveraineté numérique est l’union, si vous voulez, de la souveraineté des données, de la souveraineté des opérations et de la souveraineté des logiciels. Permettez-moi donc de vous parler de chacun de ces trois piliers à la fois. Pour vous donner un peu de contexte, parlons d’abord de la souveraineté des données. Ce que cela signifie : cela signifie que les clients veulent, ont besoin et devraient avoir le contrôle total de leurs données, y compris le stockage et la gestion des clés de cryptage. Ainsi, les exemples de contrôles des clients que nous fournissons aujourd’hui à Google Cloud comprennent le fait que les clients peuvent stocker et gérer leurs propres clés de cryptage en dehors du Cloud, ainsi qu’à l’intérieur en donnant aux clients le pouvoir de n’accorder l’accès aux clés que sur la base de la justification d’accès à la queue. Cela signifie que même les opérateurs de Google Cloud ne peuvent pas accéder aux clés sans justifier leur décision et protéger les données utilisées. 

Nous avons donc un cryptage des données en cours d’utilisation. C’est donc la partie concernant les données. Donner aux clients le contrôle de leurs données. Ce sont leurs données qui leur appartiennent. Le deuxième élément concerne la souveraineté opérationnelle, qui donne à nos clients une visibilité et un contrôle totaux, pour revenir à l’exemple du processus par lequel votre amie est passée. Nous pensons que les clients ont besoin et doivent avoir une visibilité et un contrôle sur les opérations de Google. Et nous fournissons la transparence, la respectabilité, vous avez déjà soulevé la question de la capacité d’audit et de la sécurité en opérant dans un environnement de confiance zéro. Et enfin, le dernier mais non le moindre. Et c’est vraiment le troisième pilier de la stratégie : la souveraineté. C’est aussi souvent appelé [00:21:00] survivabilité et cela signifie la protection contre les événements catastrophiques imprévus ou ce qu’on appelle le cygne noir. Mais ici, il s’agit de donner aux consommateurs ou aux clients la possibilité d’exécuter et de déplacer des charges de travail en nuage sans être enfermés dans un fournisseur particulier, ce qui peut également conduire à une meilleure durabilité comme nous l’avons discuté, y compris les circonstances extraordinaires, mais la souveraineté logicielle fournit vraiment aux consommateurs l’assurance qu’ils ne peuvent pas, ils peuvent contrôler la disponibilité de leurs charges de travail et les exécuter où ils veulent sans être indépendants ou les enfermer dans un seul produit en nuage. 

Alistair Croll : Je me souviens d’une phrase d’Henry Ford, qui, lorsqu’il fabriquait l’automobile, a dit : « Vous pouvez avoir n’importe quelle couleur tant qu’elle est noire ». La clé de l’échelle dans la production de masse est la similitude. C’est la standardisation. Et donc, quand vous parlez d’échelle, ce que vous dites vraiment, c’est que nous ne pouvons [00:22:00] l’étendre que si vous êtes tous d’accord pour suivre les mêmes règles, sinon nous sommes en surnombre et nous ne pouvons pas réaliser les économies d’échelle que vous obtenez de la production de masse.Et donc, si je résume bien, vous parlez d’un compromis entre le droit à la vie privée et l’efficacité, si désirée, de l’apprentissage automatique. Vous parlez de l’ubiquité et de la fraîcheur de l’apprentissage automatique par rapport à son coût total, qui inclut des choses comme l’empreinte carbone, qui est souvent négligée comme une externalité. Et puis vous parlez de l’échelle par rapport à la personnalisation du compromis de l’apprentissage automatique ou de l’informatique. Et je suppose que c’est devenu beaucoup plus simple dans le monde du cloud grâce à la standardisation des conteneurs, de sorte que maintenant vous pouvez créer une charge de travail, vous pouvez la rendre portable, vous pouvez la déplacer de on-prem à dans le public. Alors allons-y, je veux dire, c’est une grande conversation philosophique. Et je pense que si nous voulons vraiment être philosophiques, nous parlons en fait de la différence entre l’individualisme et le collectivisme, que [00:23:00] la vie privée vous savez, le coût et l’empreinte et l’impact, la personnalisation. Ce sont toutes des choses personnelles, mais en même temps, vous savez, l’efficacité pour tous, l’omniprésence de l’informatique et de l’IA partout, l’informatique à grande échelle qui est efficace et bon marché et qui peut suivre le soleil. Ce sont tous des avantages collectifs et il n’y a probablement aucun autre endroit où nous rencontrons ce compromis entre l’individualité et le collectivisme comme c’est le cas dans le gouvernement, comme c’est littéralement la démocratie est le collectivisme, les constitutions ou les droits de l’individu, vous savez, il y a ce compromis inhérent ici.

Comment pensez-vous que les leçons que vous avez tirées de votre travail au sein de Google Cloud peuvent être appliquées à l’équilibre que les gouvernements doivent trouver pour respecter la vie privée, les droits et les choix individuels, tout en offrant aux gens une sorte de valeur collective standardisée à l’échelle, lorsque cela leur est utile.

Patricia Florissi : Et [00:24:00] donc je vais offrir un point de vue, il y en a plusieurs, mais nous pensons que la gouvernance gouvernementale devrait promouvoir une approche interopérable des normes, des normes d’IA, des normes de souveraineté, et aussi. Alors allons-y, double-cliquez sur l’IA. Par exemple, les cadres réglementaires et les normes techniques de l’IA doivent fonctionner non seulement au niveau national, mais aussi au-delà des frontières, comme dans des domaines similaires. Par exemple, les réglementations en matière de cybersécurité devraient également permettre un certain niveau de flexibilité pour que l’approche des normes soit choisie en fonction du contexte particulier. Et je voudrais peut-être partager avec vous quelque chose qui s’est passé aux États-Unis, juste en juin de cette année que le salon de l’administration actuelle, ce qui est appelé le groupe de travail national sur les résultats de la recherche sur l’intelligence artificielle et les membres du groupe de travail aideront à développer une feuille de route pour démocratiser [00:25:00] l’accès aux outils de recherche qui vont promouvoir l’innovation de l’IA et peu de prospérité économique. Vous avez donc ici la possibilité de donner aux utilisateurs l’accès à de nouvelles capacités d’IA, y compris une excellente, y compris en élargissant l’accès aux données telles que les données gouvernementales qui ont été historiquement difficiles à accéder, mais qui permettraient d’approfondir la recherche dans deux domaines clés, tels que la partialité et l’équité.

Le gouvernement devient donc un catalyseur qui rend la technologie de l’IA accessible, qui rend les données accessibles et qui, en même temps, assure l’interopérabilité. En effet, le partage de certains types de données gouvernementales et la fourniture de puissants outils d’IA soulèvent d’importantes questions sur la manière de protéger la vie privée et les droits des personnes, mais il existe un certain nombre de mesures que les gouvernements peuvent prendre pour protéger la vie privée et les droits civils, [00:26:00] y compris, par exemple, en assurant l’expertise appropriée parmi le personnel, les examinateurs et les utilisateurs et en évaluant les propositions de protection de la vie privée et des droits civils. Je pense donc que c’est un grand pas en avant. 

Alistair Croll : Donc si je veux récapituler, je vais m’assurer que je comprends bien, la réglementation du point de vue de l’IA, des réglementations mondiales cohérentes sur l’IA peuvent équilibrer la vie privée avec l’efficacité de l’informatique omniprésente, qui est comme ce que je, ce que j’ai besoin de mon IA partout, mais aussi de calculer partout IOT, partout wifi jamais, ou quoi que ce soit d’autre, nous nous concentrons sur la neutralité carbone, l’empreinte numérique, qui est plus large que juste, est-ce que votre matériel vient d’un barrage, mais comme une empreinte numérique neutre en carbone pour tout le monde nous permettra d’avoir une informatique omniprésente et de nouveaux modèles de données qui sont moins biaisés tout en n’ignorant pas le coût total de cette empreinte, y compris l’empreinte climatique. Mais d’un point de vue de la souveraineté, nous parlons de modèles informatiques standard [00:27:00] portables qui vous permettent d’exporter et de déplacer les données, de garantir la résilience. Ainsi, vous pouvez avoir vos propres sauvegardes et calculer votre propre terme et mettre en œuvre des modèles de gouvernance pour ce logiciel tout en profitant de ces incroyables économies d’échelle et de l’élasticité du soleil en matière de consommation d’énergie et de capacité de calcul. 

Patricia Florissi : Brillant. Et je voudrais juste ajouter au dernier point sur la souveraineté l’importance de donner le contrôle aux utilisateurs de données, en s’assurant qu’il y a la transparence et l’inspectabilité et l’auditabilité de tout ce qui se passe parce que cela favorise vraiment la confiance dans le fournisseur de cloud. 

Alistair Croll : Et je pense que la confiance est quelque chose dont nous avons besoin de plus en plus au sein de notre gouvernement. Alors une dernière question, et évidemment nous pouvons poursuivre cette conversation pendant longtemps. Je pense qu’il y a beaucoup de philosophie ici sur le collectivisme et l’individualisme, en quelque sorte derrière tout ça. Où voyez-vous les normes mondiales pour le cloud computing dans les années à venir autour de [00:28:00] la réglementation, la gouvernance, la confidentialité, la neutralité carbone, comme quoi pensez-vous que nous allons arriver à un point où il y a des normes qui permettent de déplacer les charges de travail et de déplacer les données et de déplacer les processus sans beaucoup de réécriture, sans beaucoup de verrouillage parce que cela a toujours été la préoccupation est que si vous vous déplacez vers un fournisseur de cloud et vous profitez de leurs services, à leur pleine mesure, il devient très difficile de se déplacer vers un autre fournisseur de cloud. Et donc il y a une théorie de la portabilité. C’est comme un millier de petites coupures que vous êtes maintenant devenu dépendant d’une plateforme particulière et de ses API et de ses appels de fonction, et elle devient beaucoup moins portable.

Comment voyez-vous la normalisation de l’informatique en nuage et de la portabilité pour que les gouvernements puissent adopter ces technologies sans renoncer à leur souveraineté ? 

Patricia Florissi : Je pense que c’est peut-être le Saint Graal. Et je pense que nous croyons en ce concept de nuage ouvert et qu’il repose sur trois principes. Le premier est l’open [00:29:00] source. Comment pouvons-nous nous assurer que tout ce que nous construisons est basé sur un logiciel ouvert, que les gens ont le choix et qu’ils ont un moyen d’influencer la forme de la technologie utilisée, et que cela favorise l’interopérabilité. Donc si vous regardez Kubernetes, par exemple, c’est un, c’est un merveilleux exemple de la façon dont vous trouvez réellement l’alignement à travers l’open source.

La deuxième est un, ce que nous appelons des écosystèmes ouverts que nous devrions vraiment favoriser API commune est d’apporter plus de participants dans l’économie, qui je pense qui incite la concurrence et force réellement la création d’API qui sont durables et qui ont une plus longue durée de vie. Enfin, le dernier point, mais non le moindre, est la conception d’architectures qui favorisent l’agilité et la flexibilité. Et tout cela concerne la portabilité. Il s’agit de l’interopérabilité, il s’agit de cette [00:30:00] architecture centralisée, il s’agit des architectures distribuées et il s’agit d’une collaboration de services. 

Alistair Croll : Génial. Eh bien, on dirait que vous êtes au cœur de tous ces changements, et je pense que lorsque nous parlons de concurrence entre les pods, nous ne réalisons pas à quel point c’est important. Nous le prenons pour acquis. C’est juste dans le nuage et c’était la définition originale de l’informatique omniprésente, c’était la concurrence qui a juste été reçue. C’est vrai. Il est devenu invisible et c’est vrai pour les choses de l’Internet, mais aussi pour le cloud computing. Mais alors qu’il devient invisible, je pense qu’il est vraiment important de faire le point sur ses biais inhérents, ses coûts d’empreinte inhérents, ses verrouillages inhérents et les autres préoccupations afin que nous nous dirigions vers une informatique omniprésente qui profite à tous. C’est vraiment fascinant d’entendre ça et je pense… Un dernier mot pour vous : lorsqu’il s’agit de compromis, et vous allez avoir du temps pour y réfléchir, je pense que lorsqu’il s’agit de compromis, quel est le plus gros compromis dont nous ne parlons pas ? Et je vais vous donner une pause pour y réfléchir parce que nous avons le temps de le faire et ensuite nous [00:31:00] pourrons éditer cette longue pause, mais vous avez parlé de trois compromis, d’accord. Vous avez parlé de la souveraineté contre la similitude, je suppose, vous avez parlé de l’ubiquité contre l’empreinte et le coût de cela et puis vous avez parlé de la vie privée contre l’efficacité, et j’ai essayé de résumer cela. J’espère que nous avons bien résumé. Y a-t-il une quatrième question ? Par exemple, quel est l’autre compromis dont nous ne parlons pas et que nous devrions avoir. 

Patricia Florissi : Je dirais que je ne choisirais pas l’un des trois dont nous avons parlé. Je pense que le compromis dont nous ne parlons pas est de savoir comment poursuivre la croissance du cloud d’une manière durable, comme vous l’avez dit, il devient si transparent qu’il fait partie du tissu, n’est-ce pas ? C’est là que l’innovation est nécessaire, alors que dans le même temps, nous imposons aux entreprises, aux développeurs tant de domaines de préoccupation, et je vais vous en donner quatre. La vie privée, la sécurité. C’est une question de durabilité et c’est une question de souveraineté. Donc [00:32:00] il ne s’agit plus seulement de savoir comment développer des technologies innovantes, mais comment devenir comment faire face à ces quatre contraintes ? Comment puis-je le faire en présence de ces quatre contraintes tout en exigeant que le monde accélère la vitesse de l’innovation. 

Alistair Croll : Oui, donc le plus grand compromis est de gérer correctement les compromis par rapport à la croissance rapide, ce qui est très méta et cela semble être une excellente façon de terminer la conversation. Alors Patricia, merci beaucoup. C’était un vrai plaisir de parler de ça avec vous. Je me sens très bien. Tout d’abord, je ne savais pas que mes recherches n’avaient pas d’empreinte carbone, donc je vais aller faire des recherches maintenant. Mais merci beaucoup. C’était un vrai plaisir. Et encore une fois, merci à Google de soutenir le FWD50 et de nous aider à organiser l’événement dans son ensemble, ainsi que pour ces compromis, qui nous ont donné beaucoup à réfléchir. 

Patricia Florissi : Tout le plaisir est pour nous. Merci. [00:33:00]

La technologie est une série de compromis. La chaîne de blocs nous offre la permanence dans un monde numérique, mais avec un coût énergétique énorme. L’informatique en nuage nous offre une capacité à la demande, à condition que nous la partagions avec d’autres. Quant aux algorithmes, ils peuvent nous aider à naviguer dans le monde, à condition que nous partagions des informations permettant d’apprendre.

Patricia Florissi est directrice technique au sein du bureau du dirigeant principal de la technologie chez Google Cloud. Elle est régulièrement confrontée à ces compromis, ce que j’ai eu l’occasion de découvrir lors d’une récente conversation dans le cadre de la série FWD50 Industry Innovations.

Patricia a décrit trois compromis distincts liés à l’omniprésence de l’informatique et la manière dont Google Cloud les aborde :

  • Nous voulons la confidentialité des données, mais également que l’IA soit aussi exempte de préjugés injustes que possible. D’une part, nous voulons une technologie qui fonctionne pour tout le monde (alignée sur les droits de l’homme, dans des domaines tels que la vie privée, les préjugés involontaires et l’inclusion), mais d’autre part, il est nécessaire d’avoir accès aux données appropriées pour tester, valider et former les modèles.
  • L’empreinte carbone nécessaire pour rendre l’informatique omniprésente. Google utilise des compensations pour rendre Google Cloud (et tous les services Google) neutre en carbone.
  • La perte de souveraineté et d’autonomie des données lorsque l’on place toutes les charges de travail informatiques dans un seul et même nuage. Une attention particulière portée à l’open source, à la libération des données et à la portabilité des charges de travail permet d’atténuer ces risques.

Bien que la conversation ait été essentiellement technique, elle a également été un peu philosophique. Ces tensions peuvent se situer entre l’individu (personnalisation, commodité et souveraineté) et le collectif (utilité maximisée pour le groupe, changement climatique et efficacité partagée). Nous avons également abordé le rôle des gouvernements dans la régulation de ces compromis par des politiques et des incitations, et dans l’adoption de nouvelles plateformes pour la transformation numérique.