OpenAI et son ambition de contrôler l’IA super-intelligente
OpenAI, l’organisation de recherche en intelligence artificielle (IA) qui est née avec l’engagement de développer l’IA au bénéfice de toute l’humanité, a augmenté ses objectifs commerciaux depuis le lancement de ChatGPT et pendant sa récente crise de gouvernance. Dans ce contexte de changements, OpenAI a constitué une nouvelle équipe de recherche dédiée à la supervision des futures IA super-intelligentes.
En juillet, OpenAI a annoncé la création de l’équipe de recherche Superalignment. Ce groupe a pour mission de développer des techniques pour contrôler les futures IA super-intelligentes. Dans le cadre de cet effort, OpenAI s’est engagé à consacrer un cinquième de sa capacité informatique disponible au projet Superalignment.
Premiers résultats de l’équipe Superalignment
L’équipe Superalignment a récemment publié un article de recherche avec des résultats expérimentaux préliminaires. Les tests se sont concentrés sur la possibilité de permettre à une IA inférieure de guider une IA plus intelligente sans diminuer ses capacités. Ce scénario est conçu pour représenter un futur où les humains devront collaborer avec des systèmes d’IA plus intelligents qu’eux.
Le processus actuel de supervision, analysé par les chercheurs d’OpenAI, est utilisé pour ajuster des systèmes comme GPT-4, le modèle derrière ChatGPT, afin qu’il soit plus utile et moins nuisible. Ce processus implique que les humains fournissent des retours à l’IA sur les réponses appropriées et celles qui ne le sont pas.
Vers l’automatisation du processus de supervision
Cependant, à mesure que l’IA progresse, OpenAI étudie comment automatiser ce processus. Cela est dû à la possible incapacité future des humains à fournir des retours utiles à mesure que l’IA devient plus puissante.
Dans le cadre de cet effort, l’équipe Superalignment a expérimenté l’utilisation du générateur de texte GPT-2 d’OpenAI pour enseigner à GPT-4. Cependant, ils ont constaté que GPT-4 est devenu moins capable et similaire au système inférieur. Pour résoudre ce problème, ils ont testé deux idées.
La première solution proposée était de former des modèles progressivement plus grands pour réduire les performances perdues à chaque étape. La seconde était d’ajouter un ajustement algorithmique à GPT-4 qui a permis au modèle le plus fort de suivre les directives du modèle le plus faible sans diminuer ses performances autant qu’il le ferait normalement.
Malgré ces avancées, les chercheurs reconnaissent que ces méthodes ne garantissent pas un comportement parfait du modèle le plus fort. Cependant, ils décrivent les résultats comme un point de départ pour de futures recherches. Les experts externes ont donné des commentaires positifs sur les efforts proactifs d’OpenAI pour contrôler les IA surhumaines, ce qui suggère un avenir prometteur pour la recherche dans ce domaine.
Susana est une professionnelle remarquable dans le marketing et la communication, créatrice de contenu et experte en SEO. Elle est diplômée en Psychologie de l'Université de Santiago de Compostela et a un master en Marketing et Comportement du Consommateur de l'Université de Grenade et de l'Université de Jaén. De plus, elle a partagé ses connaissances à travers des conférences et des ateliers. Avec une vaste expérience en stratégies de marketing et de communication, Susana a réussi à optimiser la visibilité et le positionnement des marques grâce à des techniques de SEO.
Cette entrée est également disponible dans : Español Português