L’Altruisme Efficace et la Sécurité de l’Intelligence Artificielle : Un Débat en Cours
Le mouvement de l’Altruisme Efficace (EA) et la politique de sécurité de l’Intelligence Artificielle (IA) ont été étroitement liés ces dernières années. Cependant, cette approche a suscité des critiques, avec des arguments soutenant que l’EA se concentre excessivement sur les risques existentiels, négligeant les risques actuels et quantifiables de l’IA.
L’Influence de l’Altruisme Efficace sur la Sécurité de l’IA
Des leaders en IA et en politique étrangers au mouvement EA ont exprimé leur préoccupation quant à l’impact de l’EA sur les efforts pour garantir la sécurité de l’IA. On se demande si les entreprises et les politiciens extérieurs au mouvement comprennent cette influence et ses implications. L’Altruisme Efficace entretient des liens avec des entreprises comme Anthropic et RAND Corporation, toutes deux axées sur la sécurité de l’IA. Le mouvement EA a reçu des financements de multimillionnaires technologiques avec pour objectif principal de prévenir une catastrophe liée à l’IA.
Une préoccupation spécifique est la sécurité des poids du modèle LLM (Language Model). Jason Clinton, CISO d’Anthropic, avec deux chercheurs de la RAND Corporation, ont exprimé leur crainte que ces poids tombent entre de mauvaises mains, ce qui pourrait avoir des conséquences dévastatrices.
Critiques de l’Approche de l’Altruisme Efficace
Cependant, le mouvement EA n’est pas exempt de critiques. Nick Frosst, co-fondateur de Cohere, a critiqué l’accent excessif mis par l’EA sur les risques existentiels. De plus, l’EA est critiqué pour supposer que le bien qui est fait peut être quantifié.
Yoav Shoham, co-fondateur d’AI21 Labs, soutient que les poids du modèle ne sont pas nécessairement le principal facilitateur pour les acteurs mal intentionnés. Shoham plaide pour une attention responsable à l’utilisation de l’IA, plutôt que d’alimenter des peurs infondées.
Marek Posard, de la RAND Corporation, considère que les débats philosophiques comme l’EA sont une distraction pour la politique de l’IA. Posard défend la diversité de pensée à RAND et critique les croyances de l’EA.
En contraste avec l’approche de l’EA, Dan deBeaubien, de l’Institut SANS, se concentre davantage sur les risques de sécurité actuels liés à l’utilisation des chatbots LLM.
Mark Beall, ancien chef de la politique d’IA au Département de la Défense des États-Unis, souligne la nécessité de garanties et de politiques sensées qui peuvent coexister avec les préoccupations de l’EA.
Ian Bremmer, président et fondateur du Groupe Eurasia, a qualifié l’‘IA sans gouvernance’ comme un risque géopolitique majeur. Bremmer se concentre sur les risques actuels tels que la désinformation électorale et critique le mouvement EA pour ne pas aligner l’IA sur des modèles d’affaires qui ne sapent pas la société civile.
Vers un Équilibre entre Risques Existentiels et Actuels
En conclusion, le problème avec l’Altruisme Efficace est qu’il minimise d’autres types de risques en parlant de la fin du monde comme une possibilité réaliste. Il est crucial d’équilibrer les préoccupations existentielles avec les risques actuels et mesurables pour garantir une politique de sécurité d’IA efficace et équilibrée.
Clara est créatrice et éditrice de contenus, avec une solide formation en sciences et une spécialisation en intelligence artificielle. Sa passion pour ce domaine en constante évolution l'a amenée à acquérir les connaissances nécessaires pour comprendre et communiquer les avancées les plus récentes dans ce domaine. Grâce à son expérience et à ses compétences en rédaction et édition de contenus, Clara est capable de transmettre de manière claire et efficace des concepts complexes liés à l'intelligence artificielle et ainsi les rendre accessibles à tous types de publics.
Cette entrée est également disponible dans : Español Português