Dans cet atelier, vous découvrirez comment les incidents critiques de l’IA prennent forme de l’intérieur. Apprenez comment de vastes groupes de personnes (y compris vous-mêmes) sont aberrants dans certaines données et peuvent subir des conséquences négatives en raison de la partialité des algorithmes. Cet atelier vous enseignera des méthodes pratiques pour mesurer l’équité et vous fournira un modèle structuré de planification de projet que vous pourrez utiliser pour construire de futurs systèmes d’apprentissage automatique et d’intelligence artificielle.
Les enseignements clés :
Voir l'enregistrement sur Access FWD50
FWD50 Extras est une série d’événements ayant lieu tout au long de l'année. Ces événements comprennent des ateliers, des réunions, des débats et bien plus encore, et sont l’occasion d’approfondir des sujets essentiels pour la fonction publique avec des experts de renommée mondiale en matière de politique et de technologie.