L'IA générative : un enjeu majeur

L'IA générative : un enjeu majeur

Publié le 26 août 2024

L'IA générative est un sujet brûlant qui soulève de nombreuses questions. En 2020, alors que GPT n'était qu'un outil de niche capable de compléter des phrases, on s'interrogeait déjà sur son impact potentiel. Aujourd'hui, six ans plus tard, nous nous demandons si le langage est synonyme de pensée. L'IA surpasse désormais l'humain dans de nombreux domaines spécifiques, du jeu d'échecs à la programmation, en passant par le repliement des protéines et la rédaction de lettres de recommandation.

Plus remarquable encore, c'est le premier outil informatique sans courbe d'apprentissage : il enseigne son utilisation à quiconque sait communiquer. Même si la technologie n'évoluait plus à partir d'aujourd'hui, elle représente déjà une avancée spectaculaire pour la cognition humaine.

Certains craignent que l'IA n'inonde nos canaux de communication de contenu factice, menant à un "Internet mort". Pourtant, force est de constater que les nouvelles sur l'IA ont déjà envahi nos fils d'actualité et nos conférences. Voici donc notre réflexion sur les liens entre l'IA en général - et l'IA générative en particulier - et FWD50.

 


Une version revisité de la Règle de Chatham House

En 1919, au lendemain de la Première Guerre mondiale, le diplomate britannique Lionel Curtis a fondé le British Institute of International Affairs, une institution visant à améliorer la compréhension entre les nations. 

Huit ans plus tard, l'organisation a instauré une règle pour ses réunions, encourageant les participants à s'exprimer librement, sans crainte d'être cités. Cette règle, devenue la célèbre Règle de Chatham House, stipule que "les participants sont libres d'utiliser les informations reçues, mais ni l'identité ni l'affiliation des intervenants ne peuvent être révélées".

Un siècle plus tard, face aux technologies d'enregistrement, de streaming et d'apprentissage omniprésentes, nous avons décidé d'adapter cette règle pour certains de nos événements, notamment la Cohorte des Cadres. Voici notre "Règle FWD50" :

Pas d'enregistrement numérique, pas d'attribution sans autorisation, pas de diffusion en direct, et pas d'utilisation des discussions pour entraîner des modèles de langage (LLM). Les participants doivent être pleinement présents et renoncer à leurs appareils électroniques, sauf pendant des pauses "écran" prédéfinies.

 


Lignes directrices pour le contenu

Notre appel à propositions a suscité un vif intérêt, avec une majorité de sujets centrés sur l'IA générative. Bien que l'IA soit indéniablement un changement de paradigme pour notre société, nous souhaitons éviter trois écueils :

  • Les banalités : Des formules creuses et séduisantes, mais sans application concrète.

  • Le charlatanisme : La promotion de solutions miracles numériques, des simples interfaces pour modèles de langage aux démonstrations non fondées.

  • Les arguments commerciaux : Bien que l'IA soit prometteuse, le marché est en ébullition. Des milliards seront perdus dans les années à venir, entre produits illégaux, modèles économiques fragiles et consolidations inévitables.

Ce que nous recherchons, c'est une approche pragmatique. L'IA est là pour rester, et cela soulève de nombreuses questions :

  • Qui est responsable des erreurs de l'IA ? L'assurance a-t-elle un rôle à jouer ? Ramy Nassar, un ancien du FWD50, a publié un excellent article à ce sujet sur LinkedIn.

  • Comment authentifier et signer le contenu hybride humain/IA ? J’ai fait une suggestion dans un article paru dans Wired l'année dernière ; si vous tombez sur le paywall, vous pouvez consulter une explication plus détaillée sur Substack.

  • Faut-il licencier ou promouvoir un employé qui automatise son travail grâce à l'IA ? Maintenant que les algorithmes ne peuvent plus être distingués de certains travaux de connaissance et que l'IA agentique se profile à l'horizon, que devrions-nous faire au sujet des « technologies de l'information malhonnêtes » au niveau individuel ?

  • Comment l'IA transforme-t-elle les processus existants ? L'IA peut automatiser de nombreuses tâches banales, et il existe des exemples prometteurs de chatbots et de transformation de tout un chacun en analyste. Dans le même temps, les processus existants peuvent être « attaqués » par l'IA générative lorsqu'ils s'appuient sur quelque chose comme indicateur de valeur (par exemple, une demande de subvention devient beaucoup plus facile à rédiger, de sorte que les processus de subvention peuvent être submergés par des propositions générées).

  • Quelles sont les implications d'un développement logiciel quasi gratuit ? L'analyse de données assistée par l'IA est-elle « suffisamment bonne » pour supplanter l'analyste ? Les non-technologues vont-ils se mettre à écrire du code ? Même si cela fait des décennies que je n'ai pas codé, j'ai utilisé Claude et Appscript de Google pour développer une activation pour le Startupfest. Le coût de développement des logiciels est sur le point de chuter, ouvrant la voie à une ère de micro-applications personnelles éphémères adaptées à des cas d'utilisation très étroits qui étaient auparavant ignorés.

  • Comment garantir un droit de recours face aux décisions algorithmiques ?  L'une des grandes différences entre une machine et un être humain est que ce dernier dispose d'un recours. Lorsqu'une personne se sent marginalisée par un algorithme, que peut-elle faire ? Ce problème n'est pas nouveau (j'ai écrit sur le redlining, le big data et les droits civiques il y a 12 ans pour O'Reilly), mais l'IA l'exacerbe considérablement. En théorie, l'IA libère la majorité des cas d'utilisation afin que les humains puissent gérer l'exception, mais si nous ne sommes pas prudents, l'automatisation devient un puits de responsabilité derrière lequel les mauvaises lois et les législateurs paresseux peuvent se cacher.

 


Notre utilisation de l'IA en tant qu'organisateurs

Nous croyons en la transparence concernant l'utilisation de cette technologie révolutionnaire. Nous élaborons actuellement une politique d'IA, qui complètera notre politique de confidentialité et notre code de conduite.

Voici quelques-unes de nos lignes directrices :

  • Comment nous utilisons l'IA : Nous avons utilisé l'IA pour nous aider dans certaines tâches, notamment l'analyse de données, l'écriture de codes et la relecture. Pour l'instant, nous n'aimons pas ses résultats pour les textes marketing ou les communications, car ils « sentent le faux » d'une certaine manière. Cela pourrait changer, et si c'est le cas, nous mettrons à jour nos politiques.

  • La transparence sur notre utilisation de l'IA : Lorsque nous utiliserons l'IA, nous ferons preuve de transparence (comme dans le cas de l'activation dont j'ai parlé plus haut).

  • Ce que nous attendons de notre communauté : Nous n'acceptons pas les propositions de conférences générées par l'IA (bien que nous en ayons reçu quelques-unes). Notre logique est la suivante : si vous comptez sur un algorithme pour décrire votre idée, cette idée n'est probablement pas assez développée pour être présentée sur scène. Si une IA peut générer une proposition d'exposé, nous préférerions qu'elle donne également l'exposé (sérieusement, si vous voulez qu'une IA donne un exposé, nous sommes intéressés).

  • L'IA peut contribuer à l'accessibilité : Du sous-titrage à la classification en passant par la traduction en direct, l'IA promet d'égaliser les chances des personnes désavantagées à bien des égards. Nous continuerons d'explorer et d'expérimenter ces technologies et de partager ce que nous avons appris avec d'autres, afin d'utiliser la technologie pour améliorer la société pour tous