On ne la présente plus, OpenAI, la startup à l’origine des modèles de langage les plus avancés du moment, vient de publier sa « GPT-4o System Card« . Ce document de recherche détaille les mesures de sécurité et les évaluations des risques menées par l’entreprise avant le lancement de son dernier modèle GPT-4o. Démarche qui intervient dans un contexte de critiques croissantes à l’égard des pratiques de sécurité d’OpenAI qui émanent aussi bien de ses propres employés que de sénateurs américains.
La publication de cette évaluation vise alors à répondre à ces préoccupations, tout en soulignant les efforts déployés par l’entreprise pour prévenir les utilisations abusives de sa technologie !
Une évaluation des risques par des experts externes
Il faut savoir qu’avant le lancement public de GPT-4o en mai dernier, OpenAI a fait appel à un groupe d’experts en sécurité, appelés « red teamers », pour identifier les principales failles potentielles du système. Ces experts ont examiné des risques tels que la création non autorisée de clones de voix, la génération de contenus érotiques ou violents ou encore la reproduction de contenus audio protégés par le droit d’auteur.
Selon le cadre d’évaluation propre à OpenAI, les chercheurs ont estimé que GPT-4o présentait un risque « moyen« . Ce niveau de risque global a été déterminé à partir de la notation la plus élevée attribuée à quatre catégories : cybersécurité, menaces biologiques, persuasion et autonomie du modèle. Toutes ces catégories ont été jugées à faible risque, à l’exception de la persuasion, où les chercheurs ont constaté que certains échantillons de texte générés par GPT-4o pouvaient être plus efficaces pour influencer l’opinion des lecteurs que des textes rédigés par des humains.
À LIRE AUSSI : OpenAI fait finalement face à un dilemme concernant le lancement son outil de détection des textes IA et c’est normal !
Une transparence accrue dans un contexte tendu
Précisons qu’OpenAI n’en est pas à sa première évaluation de risques. Les modèles GPT-4, GPT-4 avec vision et DALL-E 3 ont également fait l’objet de tests similaires, dont les résultats ont été publiés. Cependant, la publication de la « GPT-4o System Card » intervient à un moment charnière pour l’entreprise, qui fait face à une vague de critiques sans précédent concernant ses normes de sécurité.
Des employés d’OpenAI aux sénateurs américains, les voix s’élèvent pour demander des comptes à l’entreprise sur sa gestion des lanceurs d’alerte et ses processus de révision de sécurité. Le départ d’un cadre chargé de la sécurité, qui affirmait que « la culture et les processus de sécurité ont été relégués au second plan au profit de produits attrayants« , a également suscité l’inquiétude.
Des risques potentiels à l’approche des élections présidentielles américaines
La sortie de GPT-4o, un modèle multimodal très performant, à quelques mois des élections présidentielles américaines, soulève également des questions. Le risque de voir le modèle propager accidentellement de la désinformation ou être détourné par des acteurs malveillants est bien réel, même si OpenAI espère mettre en avant ses efforts pour tester des scénarios réels afin de prévenir tout usage abusif.
À LIRE AUSSI : Nothing Phone 2a Plus : un nouveau smartphone au design familier mais avec plus de puissance !
Vers une régulation plus stricte des grands modèles de langage ?
Les appels à une plus grande transparence d’OpenAI se multiplient, qu’il s’agisse des données d’entraînement des modèles ou des tests de sécurité. En Californie, où sont basés OpenAI et de nombreux autres sociétés d’IA de premier plan, le sénateur Scott Wiener travaille à l’adoption d’un projet de loi visant à réguler les grands modèles de langage. Ce texte prévoirait notamment de tenir les entreprises légalement responsables si leur IA est utilisée de manière préjudiciable.
Si ce projet de loi est adopté, les modèles pionniers d’OpenAI devront se conformer à des évaluations des risques mandatées par l’État avant d’être mis à la disposition du public. Mais ce qui ressort principalement de la « GPT-4o System Card », c’est que malgré le recours à un groupe d’experts externes, une grande partie de l’évaluation repose sur OpenAI elle-même…