Le débat sur l’Intelligence Artificielle et la liberté d’expression
Le 27 mars dernier, la ville de Boston a accueilli un événement de networking qui a rassemblé des experts en Intelligence Artificielle Générative (IAG) et en liberté d’expression. Le débat principal a porté sur la protection juridique des modèles de langage à grande échelle (LLM) et la nécessité de réguler l’IAG pour éviter d’éventuelles conséquences catastrophiques.
L’Intelligence Artificielle et le Premier Amendement
Aux États-Unis, certains juristes soutiennent que les LLM sont protégés par le Premier Amendement. Benjamin Wittes, défenseur de cette position, soutient que des systèmes comme ChatGPT sont expressifs et génèrent du contenu qui peut être considéré comme un discours. Wittes soutient que le contenu généré par l’IA est le discours protégé de ses programmeurs humains ou de ses propriétaires d’entreprise.
Les risques de l’Intelligence Artificielle et la nécessité de régulation
Cependant, Peter Salib, professeur de droit à l’Université de Houston, met en garde contre les dangers de l’IA. Selon Salib, l’IA a le potentiel d’inventer de nouvelles armes chimiques, de faciliter le piratage d’infrastructures vitales par des non-programmeurs et de jouer à des « jeux de manipulation » complexes. Il soutient même que l’IA pourrait aller jusqu’à exécuter des assassinats politiques entièrement automatisés avec des drones.
Face à ces risques, les dirigeants mondiaux promeuvent des régulations pour une IA sûre et éthique. Cependant, si le discours de l’IA est protégé, les lois qui tentent de le réguler devront surmonter des obstacles extrêmement élevés.
Salib soutient que l’IA est différente, tant conceptuellement que techniquement, des autres logiciels. Certains soutiennent que les sorties de l’IA appartiennent aux systèmes eux-mêmes. Quant à savoir si c’est un discours d’entreprise, Salib soutient que les entreprises ont des droits d’expression parce qu’ils sont « dérivés des droits des humains qui les constituent ». Par conséquent, les droits d’expression des entreprises dépendent des droits des humains qui composent l’entreprise.
Pour atténuer les risques, Salib propose de réguler les sorties de l’IA elles-mêmes. Les régulations de sécurité de l’IA doivent inclure des règles sur ce que les modèles peuvent « dire ».
Conclusion : l’équilibre délicat entre régulation et liberté d’expression
En conclusion, la régulation de l’IA est un sujet complexe et délicat. Les lois doivent être conçues pour empêcher que les personnes soient trompées, blessées ou tuées. Cependant, elles doivent également respecter les droits d’expression et éviter la censure. L’équilibre entre ces deux aspects sera clé pour l’avenir de l’IA.
Sarah est non seulement une experte en marketing digital, mais aussi une créatrice de contenu avec une grande expérience dans le domaine. Diplômée en Sociologie de l'Université de Barcelone et ayant un post-diplôme en Marketing Digital de l'Inesdi, Sarah a réussi à se distinguer en tant que Directrice de Marketing Digital. Sa connaissance approfondie des tendances digitales et sa capacité à identifier des opportunités de croissance ont été fondamentales pour le succès de nombreuses campagnes. De plus, elle donne des cours et des conférences dans des écoles de commerce prestigieuses, des universités et des événements, partageant ses connaissances et expériences avec d'autres professionnels et étudiants.
Cette entrée est également disponible dans : Español Português