Le Projet BIG-bench et le Comportement de «Avancée»
Le projet Beyond the Imitation Game benchmark (BIG-bench), une initiative qui a impliqué la participation de 450 chercheurs, a développé 204 tâches dans le but d’évaluer les modèles de langage à grande échelle. Les résultats ont montré une amélioration prévisible dans la plupart des tâches à mesure que les modèles sont mis à l’échelle. Cependant, certaines tâches ont révélé un saut abrupt dans la compétence, un phénomène que les chercheurs ont appelé comportement de «avancée».
Ce comportement de «avancée» a été comparé à une transition de phase en physique. Une étude publiée en août 2022 indique que ces comportements sont surprenants et imprévisibles. Ce phénomène a pris de l’importance dans les discussions sur la sécurité, le potentiel et le risque de l’Intelligence Artificielle (IA). Les compétences qui se manifestent dans ce comportement sont décrites comme «émergentes», c’est-à-dire qu’elles n’apparaissent que lorsque le système atteint un haut niveau de complexité.
Critiques de la Théorie de l’Émergence
Cependant, la théorie de l’émergence a été critiquée. Une étude récente de l’Université de Stanford soutient que l’apparition de ces compétences est simplement une conséquence de la façon dont la performance des modèles de langage est mesurée. Selon les chercheurs de Stanford, les compétences ne sont ni imprévisibles ni soudaines. Sanmi Koyejo, auteur principal de l’étude, soutient que la transition est plus prévisible qu’on ne le pense.
Les Modèles de Langage à Grande Échelle et leur Impact sur l’IA
Les modèles de langage à grande échelle sont formés en analysant d’énormes ensembles de données textuelles et en établissant des connexions entre les mots qui apparaissent souvent ensemble. La taille de ces modèles est mesurée en termes de paramètres, qui sont approximativement toutes les façons dont les mots peuvent se connecter. Des exemples de ces modèles sont GPT-2, avec 1,5 milliard de paramètres, GPT-3.5, avec 350 milliards de paramètres, et GPT-4, avec 1,75 billion de paramètres.
La croissance accélérée de ces modèles a entraîné une augmentation impressionnante de la performance et de l’efficacité. Les modèles plus grands peuvent accomplir des tâches que les modèles plus petits ne peuvent pas, même celles pour lesquelles ils n’ont pas été formés. Les chercheurs de Stanford reconnaissent que les modèles deviennent plus efficaces à mesure qu’ils sont mis à l’échelle. Cependant, ils soutiennent que l’amélioration peut sembler douce et prévisible ou abrupte et aiguë selon la métrique choisie ou la rareté des exemples de test, et non en fonction des opérations internes du modèle.
En conclusion, le débat sur le comportement de « percée » et la théorie de l’émergence dans les modèles de langage à grande échelle persiste. Alors que certains chercheurs voient dans ces phénomènes un potentiel et un risque imprévisibles, d’autres soutiennent qu’ils sont simplement le résultat de la façon dont la performance de ces modèles est mesurée. Ce qui est indiscutable, c’est que la croissance rapide et l’amélioration des performances de ces modèles sont en train de transformer le paysage de l’Intelligence Artificielle.
Sandra est spécialiste en marketing digital et experte en réseaux sociaux. Elle a obtenu un post-diplôme en Communication et RP pour les marques de mode à Idep Barcelone, ainsi qu'un autre en Marketing et réputation en ligne : communautés virtuelles. Sandra est au courant des dernières tendances et des meilleures pratiques sur les réseaux sociaux, ce qui se reflète dans son travail quotidien en générant un impact positif dans le monde numérique.
Cette entrée est également disponible dans : Español Português