La Commission européenne lance une unité de recherche pour étudier les algorithmes utilisés par les grandes technologies

La Commission européenne lance une unité de recherche pour étudier les algorithmes utilisés par les grandes technologies

Nœud source: 2597012

La Commission européenne a franchi une étape importante dans la réglementation des Big Tech en lançant une nouvelle unité de recherche appelée Centre européen pour la transparence algorithmique (ECAT). L'objectif principal de l'ECAT est d'étudier l'impact des algorithmes créés et utilisés par les principales plateformes en ligne et les moteurs de recherche tels que Facebook et Google. L'équipe analysera et évaluera les algorithmes soutenus par l'IA utilisés par les entreprises Big Tech pour identifier et traiter les risques potentiels posés par ces plateformes.

L'actuel Centre commun de recherche de l'Union européenne intégrera l'ECAT, qui mène des recherches sur un large éventail de sujets, dont l'intelligence artificielle. L'équipe sera composée de scientifiques des données, d'experts en IA, de spécialistes des sciences sociales et d'experts juridiques. L'objectif du groupe sera de mener des audits algorithmiques de responsabilité et de transparence, comme l'exige la loi sur les services numériques, un ensemble de règles de l'Union européenne applicables à compter du 16 novembre 2022.

Les programmes basés sur l'IA sont construits à l'aide d'une série d'algorithmes complexes, ce qui signifie que l'ECAT examinera également les algorithmes qui sous-tendent les chatbots d'IA tels que ChatGPT d'OpenAI, qui, selon certains, pourraient éventuellement remplacer les moteurs de recherche. L'équipe examinera les algorithmes utilisés par les entreprises Big Tech pour s'assurer qu'ils sont transparents et que leurs opérations ne nuisent pas aux utilisateurs.

Selon Thierry Breton, commissaire européen au marché intérieur, l'ECAT va "regarder sous le capot" des grands moteurs de recherche et plateformes en ligne pour "voir comment leurs algorithmes fonctionnent et contribuent à la diffusion de contenus illégaux et préjudiciables". Cette décision de la Commission européenne est un développement important dans la réglementation des entreprises Big Tech, et elle garantira que ces entreprises sont tenues responsables de l'impact de leurs algorithmes sur la société.

Le développement de l'IA a été une question controversée, avec près d'une douzaine de politiciens européens appelant au développement "sûr" de l'IA dans une lettre ouverte signée le 16 avril. Les législateurs ont demandé au président américain Joe Biden et à la présidente de la Commission européenne Ursula von der Leyen de convoquer un sommet sur l'IA et de convenir d'un ensemble de principes directeurs pour le développement, le contrôle et le déploiement de la technologie.

L'entrepreneur technologique Elon Musk a également exprimé ses inquiétudes quant au développement de l'IA. Il a fait valoir lors d'une interview de Fox News le 17 avril que les chatbots d'IA comme ChatGPT avaient un parti pris de gauche et a déclaré qu'il développait une alternative appelée "TruthGPT". Cette décision de Musk met en évidence les préoccupations croissantes concernant les implications éthiques de l'IA et son impact sur la société.

En conclusion, le lancement de l'ECAT par la Commission européenne est un développement significatif dans la réglementation des entreprises Big Tech. Cela garantira que ces entreprises sont tenues responsables de l'impact de leurs algorithmes sur la société, et cela aidera également à identifier et à traiter les risques potentiels posés par ces plateformes. L'équipe d'experts de l'ECAT jouera un rôle essentiel dans la réalisation d'audits de responsabilité et de transparence algorithmiques afin de garantir que les algorithmes utilisés par les entreprises Big Tech sont transparents et ne nuisent pas aux utilisateurs.

Horodatage:

Plus de Blockchain Nouvelles