OpenAI exclut toute utilisation lors des élections et de la suppression des électeurs

OpenAI exclut toute utilisation lors des élections et de la suppression des électeurs

Nœud source: 3073710

Dans une démarche décisive pour lutter contre la désinformation lors des élections, OpenAI a déclaré un position rigoureuse contre l’utilisation de ses outils d’IA générative dans les campagnes électorales et les tactiques de suppression des électeurs.

Cette annonce constitue une étape essentielle pour garantir l’intégrité de nombreuses élections clés prévues en 2024.

A lire également: OpenAI négocie les licences de contenu d'actualité avec CNN, Fox et Time

Combattre les abus grâce à l’innovation et aux politiques

OpenAI a lancé une stratégie pour protéger sa technologie contre toute exploitation pour manipuler les résultats des élections. La société a mis en place une équipe spécialisée axée sur les préoccupations liées aux élections, fusionnant l'expertise de divers départements, notamment juridiques, d'ingénierie et politiques. L’objectif principal de cette équipe est d’identifier et d’atténuer les abus potentiels de l’IA lors des élections.

«Nous déployons un effort interfonctionnel dédié au travail électoral, réunissant l'expertise de nos équipes en matière de systèmes de sécurité, de renseignement sur les menaces, juridiques, d'ingénierie et politiques.»

La menace de la désinformation en politique n’est pas nouvelle, mais l’avènement de la technologie de l’IA présente des défis sans précédent. Conscient de cela, OpenAI prend des mesures proactives. L'entreprise prévoit d'utiliser une combinaison de techniques telles que l'équipe rouge, l'engagement des utilisateurs et les garde-corps de sécurité. Plus précisément, leur image outil de génération, DALL-E, a été mis à jour pour empêcher la création d’images représentant de vraies personnes, y compris des candidats politiques.

« DALL·E dispose de garde-fous pour refuser les demandes qui demandent la génération d'images de personnes réelles, y compris de candidats. »

OpenAI révise continuellement ses politiques d'utilisation pour suivre le rythme de l'évolution du paysage de la technologie de l'IA et de son utilisation abusive potentielle. Ses politiques de sécurité mises à jour limitent désormais explicitement le développement d’applications d’IA à des fins de campagne politique et de lobbying. De plus, des mesures ont été mises en place pour empêcher la création de chatbots imitant de vraies personnes ou organisations.

Améliorer la transparence et la responsabilité

Un élément clé de la stratégie d’OpenAI est l’introduction d’un classificateur de provenance pour son outil DALL-E. Cette fonctionnalité, actuellement en test bêta, peut détecter les images générées par DALL-E. L'entreprise vise à rendre cet outil accessible aux journalistes, aux plateformes et aux chercheurs afin d'améliorer la transparence du contenu généré par l'IA.

"Nous prévoyons de le mettre bientôt à la disposition de notre premier groupe de testeurs, comprenant des journalistes, des plateformes et des chercheurs, pour obtenir leurs commentaires."

OpenAI intègre également des reportages d'actualité en temps réel dans ChatGPT. Cette intégration vise à fournir aux utilisateurs des informations précises et opportunes, améliorant ainsi la transparence autour des sources d'informations fournies par l'IA.

Dans le cadre d'un effort conjoint avec l'Association nationale des secrétaires d'État des États-Unis, OpenAI s'efforce d'empêcher sa technologie de décourager la participation électorale. Le travail d'équipe consiste à diriger les utilisateurs de chatbots alimentés par GPT vers des sites Web d'information sur le vote fiables comme CanIVote.org.

Les rivaux emboîtent le pas dans la course à l’IA

L'annonce d'OpenAI a créé un précédent dans l'industrie de l'IA, avec des concurrents comme Google LLC et Meta Platforms Inc. mettent également en œuvre des mesures pour lutter contre la désinformation diffusée via leurs technologies. Cet effort collectif des leaders de l’industrie témoigne d’une prise de conscience et d’une responsabilité croissantes à l’égard de l’impact potentiel de l’IA sur les processus démocratiques.

Mais est-ce suffisant ? Charles King de Pund-IT Inc. soulève un point critique, se demandant si ces mesures sont opportunes ou réactives. Il fait valoir que les inquiétudes concernant la désinformation générée par l’IA existent depuis des années et que l’annonce récente d’OpenAI pourrait être considérée comme trop peu, trop tard. Cette perspective suscite une réflexion plus approfondie sur le rôle et la responsabilité des développeurs d’IA dans le paysage politique.

« Donc, au mieux, cette annonce suggère qu’OpenAI dormait au niveau du commutateur. Mais au pire, cela ressemble à un rituel de lavage des mains auquel OpenAI peut se référer lorsque l’IA générative fait son apparition lors des prochaines élections mondiales de cette année.

Horodatage:

Plus de MétaActualités